Man mano che l'AI si sposta nei robot, nell'aviazione e nella chirurgia, una domanda è più importante delle prestazioni:
Chi è responsabile quando qualcosa va storto?
Questa intervista con il co-fondatore di @inference_labs @colingagich approfondisce l'inferenza verificabile, le garanzie crittografiche e perché la fiducia è il livello mancante per l'AI fisica.
TIMESTAMPS:
00:00 — Introduzione a Inference Labs e alla sua missione
03:29 — Sistemi di verifica e audit dell'AI core
05:51 — Perché il Web3 è necessario per la fiducia nell'AI
11:28 — Robotica, sicurezza e responsabilità
18:52 — Fiducia uomo-robot e il futuro
La liquidità è dispersa, le tempistiche sono tossiche e la maggior parte dei nuovi utenti non riesce più a trovare progetti reali.
In questa intervista, @RickCrosschain di @ggdotxyz spiega perché la scoperta è rotta e come i feed di tesi curati + incentivi allineati possono risolvere l'attenzione nelle fasi iniziali 👇
TIMESTAMP
00:47 — Cos'è gg.xyz
03:51 — I Launchpad sono il problema?
06:07 — Come funziona gg.xyz
10:57 — Convizione in questo ciclo?
CT era piena di veri thread di ricerca. Oggi è per lo più rumore, purtroppo. In questo breve,
@RickCrosschain spiega come @ggdotxyz sta ricostruendo un flusso curato di segnali di alta qualità.
L'intervista completa andrà in onda presto 👇