Wietse Hage
đ€ SpeakerAppearances Over Time
Podcast Appearances
dat is allemaal vertrouwd en die vertrouwen elkaar. Dat is één groot net van vertrouwen. Die zegt, joh, zij gebruiken het protocol. Je mag alleen maar als je... die creditcard, die persoon, et cetera. En dan krijg je zo'n... het is het safety trust web. En dan zou jij kunnen zeggen... tot dit bedrag op deze specifieke website... voor deze specifieke persoon... mag die agent een vliegticket kopen. Ja.
En dan kan je dat natuurlijk door dat met kleine bedragen te beginnen... kan ik me zo voorstellen. Ik denk dat het handiger is om met thuisbezorgd te beginnen... en niet met KNM. Ja, precies. Dat je wel je burritos kan doen, maar niet je vlucht. Ja, zodat het allemaal wel meevalt. Ook dat je het een beetje kan verzekeren vanuit de payment. Dat je zegt, joh, inderdaad, jouw agent heeft...
Te veel burritos besteld. Daar falen we allemaal van. Maar dat kunnen we aan. In plaats van, ja, je gaat naar een heel ander land vliegen. En wat ik zelf boeiend vind, dat is waarom ik dit protocol interessant vind, is omdat wat Google ook gemaakt heeft, is een agent-to-agent protocol. Daar hebben wij eerder over gesproken. Daar zit eigenlijk een specifiek onderdeel van. Dus in eerste instantie wil je een protocol hebben voor agents om met elkaar te praten, buiten mensen om. En daarbinnen wil je dan zeggen, een van de aller...
Het belangrijkste, op z'n minst zo belangrijk als bijvoorbeeld identiteit, is financiën. Zullen we dan een specifieke subset van het protocol maken waar het gaat over geld? En ik denk dat wat nu begint te ontstaan... is dat een soort van die brute force vanuit die labs... waarbij ze zeggen, dit ding neemt je hele computer over... en gaat voor jou boodschappen doen op Amazon. Nu een beetje teruggedraaid wordt naar... oké, wacht nou even, afspraken maken, rustig uitrollen, winkel voor winkel...
En hou je een beetje koest. Ik vind de buy-in van die 261 payment providers wel boeiend. Dat die blijkbaar allemaal zeggen, dit zien we ook wel zitten. Nu is het natuurlijk de vraag of Entropic en OpenAI ditzelfde protocol gaan ondersteunen. Zelfs dat met MCP destijds gegaan is, wat vanuit Entropic ontstaan is. Zie je het als de MCP tussen twee agents specifiek gericht op?
Ja, voor mij zijn er destijds ook best wel wat mensen bij OpenAI die weggegaan zijn. Er was een soort OpenAI Exodus destijds bij Entropic terechtgekomen. Dus dat is een andere flank van OpenAI. Ja, maar dus ook eentje waarbij ze dus lijkt het een beetje stand...
Nou, ik maak even een sprongetje naar Minecraft. Vind je dat goed? Laten we Minecraft er even op. Waarom niet? Als je in Minecraft heb je zoiets als een seed, namelijk het beginzaadje waaruit een Minecraft wereld wordt opgebouwd. En als ik mijn seed naar jou toestuur via de mail, krijg je mijn opbouwend string van tekens. Je drukt op een knop. Dit maakt het echt zoveel eenvoudiger. Nee, dit gaat echt helemaal goed komen. Ja.
Dan druk jij op generate en dan krijg jij exact dezelfde Minecraft wereld als ik. Omdat het beginpunt van die wereld hetzelfde was. Dus we zeggen, hier is de eerste deel van een muziekstuk... en dan genereert het algoritme altijd de rest van het muziekstuk op exact dezelfde manier. Dat heet een deterministisch algoritme. Oftewel, wie hem ook draait, als jij met hetzelfde zaadje begint... komt dan altijd hetzelfde eindresultaat uit.
Hoe kan het dan zo zijn... want dit was de grote vraag van de research paper... wat uit het lab gekomen is... van Mira Mirati... ex-OpenAI... is... waarom als ik exact dezelfde vraag stel... aan exact hetzelfde taalmodel... krijg ik niet exact hetzelfde antwoord? Ja...
Het is gewoon een computer, toch? Ene en nullen. Waar komt ineens die non-deterministic nature, die vage randomness vandaan? Waarom iedere keer als ik op regenerate krug, krijg ik iets nieuws? Ja, waarom krijg ik eigenlijk iedere keer iets nieuws? Dit is een interessante vraag.
Wat blijkt is dat van alle variabelen... die er zijn aan het begin van het genereren van het antwoord... zijn niet alle variabelen statisch. Kijk, alles moet statisch zijn... om tot een deterministisch systeem te komen. Gek voorbeeld, stel ze zouden zeggen... we pakken de gemiddelde temperatuur van de server...
Iedere keer mee. In onderdeel van die rekensom. Iedere keer als je dan op regenerate drukt. Krijg je iets nieuws. Waarom zou je dit doen? Wat zo bijzonder is. Is dat het eigenlijk vaak best wel wenselijk is. Om echte randomness te introduceren. In computersystemen. Even voor de luisteraar. Om een computer willekeurig te maken. Of willekeurig te geven. Een soort surprise element. Iets wat moeilijk te voorspellen is.
Dat zit eigenlijk niet in de computer. Dat heet pseudo-random. En waarom zouden we dat willen? Nou, als je bijvoorbeeld iets wil encrypten, versleutelen... dan wil je die versleuteling deels baseren op iets echt unieks. Wat ze bijvoorbeeld bij Cloudflare heel lang hebben gedaan... is een webcam gezet op een muur van lavalampen. I kid you not. En dan gebruikten ze de status van al die lavalampen... dus waar de lava in die lavalamp was. Zie je gewoon een hele muur met lavalampen. Met van die bubbels. Ja.
En dan maak je daar een foto van en die foto van de staat van de lavalampen op dat moment wordt de random seed. Dan haal je eigenlijk je willekeurigheid van buiten je computer uit de realiteit, lavalampen, en die breng je dat algoritme in. Dus dan kies je eigenlijk voor een externe random generator. En waarom zou je willekeurigheid in een AI systeem willen introduceren?
Daarbij zou je een soort evolutionair argument kunnen maken... dat in evolutie zitten ook allerlei mutaties. En de meeste mutaties zijn zinloos. Sommige mutaties zijn gevaarlijk. Dan word je ziek. Maar heel soms zit er een mutatie bij... die is eigenlijk best wel handig. En zo zitten jij en ik hier nu... omdat een wormpje ooit is gaan muteren... totdat wij hier zaten. Je wil maar zeggen, in de evolutie van mensen... zijn er ook allerlei willekeurige dingen...
Enige chaos in het proces. Ja, dus dat is goed als je een AI systeem wil bakken. Nou ja, ik moet heel eerlijk zeggen, wat ik niet uit deze paper haalde, is of het er bewust zo ingestopt is destijds. Maar het is er wel. Het is er. Want we weten dat je iedere keer een ander antwoord krijgt, dus dan moet er iets willekeurig zijn. Dat complexe batch verhaal wat jij net eventjes eruit gehoord hebt. De batch invariance. Zonder te stotteren. Van de GPU's kernels. Goed.
Goeie naam voor een band trouwens. Als jij een vraag stelt aan een AI systeem, dan moet er ergens een model voor jou inference doen. Oftewel berekeningen maken om het volgende woordje voor jou te gokken. Die computer daar, server, is niet alleen van jou. Die is gedeeld met allerlei andere gebruikers. Zie het als een home share stay away ding. Ja.
Dat is een hostel. Een datacentrum is een hostel. Ja, er liggen nog twaalf gasten te snurken. Wat dus blijkt is dat die andere elf gasten in dat hostel hebben invloed op jouw omgeving. Andere chachapetiergebruikers hebben met hun gebruik invloed op jouw chachapetiergebruik. Ja, precies.
Precies, wat daar op dat moment op die machine gebeurt in de gesprekken met de andere gebruikers, heeft een hele subtiele invloed, niet letterlijk de woorden van hun, maar heeft een hele subtiele invloed op de rest van de gebruikers. Waardoor iedere keer als jij je vraag stelt, een deel van de variabelen die meegaan in jouw antwoord niet statisch is. Kijk, om een volledig deterministisch systeem te maken, moet alles exact hetzelfde zijn in initial conditions. Ja.
Wat zijn GPU kernels? Ik ga ervan uit dat die GPU's... Er zitten vaak meerdere GPU's in zo'n server. En die GPU zelf, je wil eigenlijk niet één chip toekennen aan één gebruiker. Je wil die chip delen. En blijkbaar is het zo dat bij het delen van die chip, de shared...