Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construção @EurekaLabsAI. Anteriormente Diretor de IA @ Tesla, equipe fundadora @ OpenAI, CS231n/PhD @ Stanford. Eu gosto de treinar grandes redes neurais profundas.
Nunca me senti tão atrasado como programador. A profissão está a ser dramaticamente reformulada à medida que os bits contribuídos pelo programador se tornam cada vez mais escassos e intercalados. Tenho a sensação de que poderia ser 10X mais poderoso se apenas conseguisse juntar corretamente o que se tornou disponível ao longo do último ~ano e a falha em reivindicar o impulso parece decididamente uma questão de habilidade. Há uma nova camada programável de abstração para dominar (além das camadas habituais abaixo) envolvendo agentes, subagentes, os seus prompts, contextos, memória, modos, permissões, ferramentas, plugins, habilidades, ganchos, MCP, LSP, comandos de barra, fluxos de trabalho, integrações de IDE, e a necessidade de construir um modelo mental abrangente para as forças e armadilhas de entidades fundamentalmente estocásticas, falíveis, incompreensíveis e em mudança que se misturaram subitamente com o que costumava ser a boa e velha engenharia. Claramente, alguma ferramenta poderosa e alienígena foi passada, exceto que vem sem manual e todos têm que descobrir como segurá-la e operá-la, enquanto o resultado magnitude 9 de um terremoto está a abalar a profissão. Arregaça as mangas para não ficar para trás.
526
Adoro a expressão “comida para pensar” como uma capacidade cognitiva concreta e misteriosa que os humanos experienciam, mas que os LLMs não têm equivalente.
Definição: “algo que vale a pena pensar ou considerar, como uma refeição mental que nutre a sua mente com ideias, percepções ou questões que requerem uma reflexão mais profunda. É usada para tópicos que desafiam a sua perspetiva, oferecem uma nova compreensão ou fazem você ponderar questões importantes, atuando como uma estimulação intelectual.”
Portanto, na linguagem dos LLMs, é uma sequência de tokens tal que, quando usada como prompt para uma cadeia de pensamento, as amostras são recompensadoras de se atender, através de alguma função de recompensa intrínseca ainda não descoberta. Obcecado com a forma que isso assume. Comida para pensar.
571
Novo post rápido: Avaliação automática de discussões do Hacker News de uma década atrás com retrospectiva
Peguei todos os 930 artigos+discussões da página inicial do Hacker News de dezembro de 2015 e pedi à API de Pensamento GPT 5.1 para fazer uma análise retrospectiva para identificar os comentários mais/menos perspicazes. Isso levou cerca de 3 horas para codificar e cerca de 1 hora e $60 para executar. A ideia foi inspirada pelo artigo do HN de ontem, onde foi pedido ao Gemini 3 para alucinar a página inicial do HN uma década à frente.
De forma mais geral:
1. a análise retrospectiva sempre me fascinou como uma maneira de treinar seu modelo de previsão futura, então ler os resultados é realmente interessante e
2. vale a pena contemplar como será quando as mentes brilhantes de LLM do futuro puderem fazer esse tipo de trabalho de forma muito mais barata, rápida e melhor. Cada pedacinho de informação que você contribui para a internet pode (e provavelmente será) examinado em grande detalhe se for "gratuito". Daí também meu tweet anterior de um tempo atrás - "seja bom, os futuros LLMs estão observando".
Parabéns às 10 principais contas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth e johncolanduoni - o GPT 5.1 Thinking considerou seus comentários como os mais perspicazes e esclarecedores de todos os comentários do HN em dezembro de 2015.
Links:
- Muito mais detalhes no meu post do blog
- Repositório do GitHub do projeto se você quiser brincar
- As páginas de resultados reais para seu prazer de leitura

1,08K
Top
Classificação
Favoritos
