Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Gebouw @EurekaLabsAI. Voorheen directeur van AI @ Tesla, oprichtend team @ OpenAI, CS231n/PhD @ Stanford. Ik vind het leuk om grote diepe neurale netwerken te trainen.
Ik heb nog nooit zo'n achterstand gevoeld als programmeur. Het beroep wordt dramatisch herzien, aangezien de bijdragen van de programmeur steeds schaarser en tussenliggende zijn. Ik heb het gevoel dat ik 10X krachtiger zou kunnen zijn als ik gewoon goed samenvoeg wat er het afgelopen ~jaar beschikbaar is gekomen, en het niet benutten van die boost voelt beslist als een vaardigheidsprobleem. Er is een nieuwe programmeerbare abstractielaag te beheersen (naast de gebruikelijke lagen eronder) die agents, subagents, hun prompts, contexten, geheugen, modi, machtigingen, tools, plugins, vaardigheden, hooks, MCP, LSP, slash-commando's, workflows, IDE-integraties omvat, en de noodzaak om een allesomvattend mentaal model te bouwen voor de sterke en zwakke punten van fundamenteel stochastische, feilbare, onbegrijpelijke en veranderende entiteiten die plotseling vermengd zijn met wat vroeger goed ouderwets engineering was. Duidelijk is dat er een krachtig buitenaards hulpmiddel rondging, maar het komt zonder handleiding en iedereen moet uitzoeken hoe het vast te houden en te bedienen, terwijl de resulterende magnitude 9 aardbeving het beroep opschudt. Rol je mouwen op om niet achter te blijven.
493
Ik hou van de uitdrukking “food for thought” als een concrete, mysterieuze cognitieve capaciteit die mensen ervaren, maar waar LLM's geen equivalent voor hebben.
Definitie: “iets dat het waard is om over na te denken of te overwegen, zoals een mentale maaltijd die je geest voedt met ideeën, inzichten of kwesties die diepere reflectie vereisen. Het wordt gebruikt voor onderwerpen die je perspectief uitdagen, nieuwe inzichten bieden of je aanzetten tot het overdenken van belangrijke vragen, en fungeert als intellectuele stimulatie.”
Dus in LLM-taal is het een reeks tokens die, wanneer gebruikt als prompt voor een keten van gedachten, de monsters belonend zijn om op te letten, via een nog onontdekte intrinsieke beloningsfunctie. Geobsedeerd door welke vorm het aanneemt. Food for thought.
539
Snelle nieuwe post: Auto-beoordeling van discussies op Hacker News van een decennium oud met terugwerkende kracht
Ik heb alle 930 artikelen en discussies op de voorpagina van Hacker News van december 2015 genomen en de GPT 5.1 Thinking API gevraagd om een terugwerkende analyse te doen om de meest/het minst vooruitziende opmerkingen te identificeren. Dit kostte ongeveer 3 uur om de code te viberen en ongeveer 1 uur en $60 om uit te voeren. Het idee werd aangewakkerd door het HN-artikel van gisteren waarin Gemini 3 werd gevraagd om de HN-voorpagina een decennium vooruit te hallucineren.
Algemeen gesproken:
1. terugwerkende analyses hebben me altijd gefascineerd als een manier om je voorspellingsmodel voor de toekomst te trainen, dus het lezen van de resultaten is echt interessant en
2. het is de moeite waard om na te denken over hoe het eruitziet wanneer LLM-megaminds van de toekomst dit soort werk veel goedkoper, sneller en beter kunnen doen. Elke enkele bit informatie die je bijdraagt aan het internet kan (en waarschijnlijk zal) in detail worden onderzocht als het "gratis" is. Daarom ook mijn eerdere tweet van een tijdje geleden - "wees goed, toekomstige LLMs kijken mee".
Gefeliciteerd aan de top 10 accounts pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth en johncolanduoni - GPT 5.1 Thinking vond jullie opmerkingen de meest inzichtelijke en vooruitziende van alle opmerkingen op HN in december 2015.
Links:
- Veel meer details in mijn blogpost
- GitHub-repo van het project als je wilt spelen
- De daadwerkelijke resultaatpagina's voor je leesplezier

1,05K
Boven
Positie
Favorieten
