När AI rör sig in i robotar, flyg och kirurgi är en fråga viktigare än prestation:
Vem är ansvarig när något går fel?
Denna intervju med @inference_labs medgrundare @colingagich går in på verifierbar inferens, kryptografiska garantier och varför förtroende är det saknade lagret för fysisk AI.
TIDSSTÄMPLAR:
00:00 — Introduktion till Inference Labs och dess uppdrag
03:29 — Kärnsystem för AI-verifiering och granskning
05:51 — Varför Web3 behövs för AI-förtroende
11:28 — Robotik, säkerhet och ansvarstagande
18:52 — Människa–robot-förtroende och framtiden
Likviditeten är splittrad, tidslinjer är giftiga och de flesta nya användare kan inte hitta riktiga projekt längre.
I denna intervju @RickCrosschain @ggdotxyz från bröd varför upptäckt är trasigt, och hur kuraterade tesflöden + samordnade incitament kan fixa tidigt intresse 👇
TIDSSTÄMPLAR
00:47 — Vad är gg. xyz
03:51 — Är uppskjutningsramper problemet?
06:07 — Hur gg .xyz fungerar
10:57 — Övertygelse denna cykel?
CT brukade vara fullt av riktiga forskningstrådar. Idag är det mest buller, tyvärr. Kort sagt,
@RickCrosschain förklarar hur @ggdotxyz bygger upp en kurerad ström av högkvalitativa signaler
Hela intervjun publiceras snart 👇