Det er svært bra at Anthropic ikke har trukket seg tilbake, og det er tydelig at OpenAI har tatt en lignende holdning.
I fremtiden vil det oppstå langt mer utfordrende situasjoner av denne typen, og det vil være avgjørende at de relevante lederne reiser seg til anledningen, at harde konkurrenter legger sine uenigheter til side. Godt å se det skje i dag.
Det er svært bra at Anthropic ikke har gitt seg, og det er betydningsfullt at OpenAI nå har tatt i bruk de samme betingelsene.
I fremtiden vil det oppstå langt mer utfordrende situasjoner av denne typen, og det vil være avgjørende at de relevante lederne reiser seg til anledningen, at harde konkurrenter legger sine uenigheter til side. Godt å se det skje i dag.
Et poeng jeg nevnte som ikke kom frem:
- Å skalere det nåværende vil fortsette å føre til forbedringer. Spesielt vil den ikke stanse.
- Men noe viktig vil fortsatt mangle.
Her er de viktigste punktene fra dagens Ilya Sutskever podcast:
- superintelligens på 5–20 år
- strømskala vil stanse hardt; Vi er tilbake til ekte forskning
- superintelligens = superrask kontinuerlig lærende, ikke ferdig orakel
- modeller generaliserer 100 ganger dårligere enn mennesker, den største AGI-blokkeren
- trenger helt nytt ML-paradigme (jeg har ideer, kan ikke dele nå)
- AI-påvirkning vil ramme hardt, men først etter økonomisk spredning
- gjennombrudd har historisk sett krevd nesten ingen beregning
- SSI har nok fokusert forskningsberegning til å vinne
- nåværende RL bruker allerede mer datakraft enn forhåndstrening