Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
CERN in Zwitserland. Het begint dan daar en dan heb je een distributie en dan worden er allebei kloontjes, kopieën gemaakt van diezelfde technologie met eigen smaakjes, lokale smaakjes, ander soort bedrijfsvormen, et cetera. Zo is het internet bijvoorbeeld uiteindelijk als een soort schimmel of een risoomnetwerk die wereldover gegroeid vanuit Zwitserland, zie ik dan even zo vormen.
Ja, en niet in eigendom van één bedrijf bedoel je? Uiteindelijk niet meer. Maar het kan heel goed beginnen bij één lab en dan gedistribueerd worden of bij één bedrijf slash lab of bij één bedrijf. Dat is een beetje dat verschil wat we eerder in deze aflevering aanraakten tussen het commerciële en het onderzoek. Soms begint het gecentraliseerd vanuit onderzoek, soms begint het gecentraliseerd vanuit het bedrijfsleven. Maar het
Het is prettig, in mijn oog in ieder geval, als zo'n technologie zich daarna over de wereld kan verspreiden, zodat het in lokale culturen kan landen en aangepast kan worden naar wat de mensen daar willen. En dat er ook een soort stabiliteit ontstaat, omdat het niet op één plek staat. Want ik denk dat...
Dat zijn ze aan het doen op hun werk met Copilot. Dus dat is dan een datacenter in de buurt. Dus dat is niet altijd een datacenter in Amerika. Dat kan ook een datacenter zijn in de buurt. Maar wel een datacenter van een bedrijf vaak.
En als mensen dan met die AI praten, kan dat zijn dus Copilot, maar ook de OpenAI ChatGPT app, maar ook Cloud. En misschien zelfs Le Chat van Mistral. Van Mistral, ja. Dat is een datacentrum in Parijs. Maar het zijn allemaal, jij zei het al, dunne schillen. Dus thin clients, om even de onderwijsmetafoor te gebruiken. Kleine, dunne computertjes die bijna niks weten, die constant al hun hulp moeten vragen over glasvezelnetwerken heen naar datacenters. Ja.
En je bedoelt, kleine computers bedoel je dan in je telefoon? De app in je telefoon doet niks zelf? Het is alleen maar een doorgeefluik van een server die ergens staat te roken? Ja, ik zou zeggen, natte vingerwerk hoor, maar één op de tienduizend mensen die vandaag in Nederland met AI praat, praat met iets wat op hun telefoon staat. Precies. En al die andere mensen praten met hun data.
die gedistribueerde AI gebruikt. Maar hoe werkt dat dan? Hoe werkt lokale AI dan? Wat is dat en hoe doe je dat dan? Ja, precies. Ik denk wel dat... ik wil nog wel even de kanttekening maken... dat ik daar misschien iets minder radicaal in ben... dan sommige mensen misschien zouden verwachten van mij. Ik kan ook prima tevreden zijn... met een regionaal datacenter bijvoorbeeld. Nou, bedankt voor deze disclaimer...
Dus het hoeft niet per se allemaal in jouw broekzak of allemaal thuis. Maar hoe zou dat eruit zien als we even die knop helemaal de andere kant op duwen in het spectrum? Ja, want dit zijn we nu gewend. Chat je PT op je telefoon inderdaad of co-pilot. Dat is wat hoe we nu begrijpen dat AI werkt. En ik ga een beetje leunen op wat Apple al bedacht heeft en wat ze nog niet gelukt is om aan ons in de markt te geven. Maar wat ze wel best wel goed hebben uitgewerkt.
En dat is eigenlijk, zou je dat kunnen zien als een soort tool calling. Ik ga mijn best doen. Nu is het zo dat op het moment dat jij een AI aanroept, dus nog niet in het lokale, maar status quo centraliseert.
Dan praat jij met Claude in een datacenter ergens, waarschijnlijk in Amsterdam, want die hebben ook lokale plekken, maar in ieder geval Van en Tropic even als voorbeeld. Dan stel jij een vraag over, ik wil mijn thermostaat hoger zetten. Dan gaat hij via Zapier naar jouw thermostaat toe in huis, zet hij hem hoger en komt hij weer terug. Daar doet hij dus een tool call, zoals dat heet. Dus die AI in dat datacenter, die mag naar buiten toe, buiten zijn datacenter, naar een andere datacenter om daar aan Zapier die thermostaat om te zetten. Waarom is dit zo belangrijk?
Die toolcalling functionaliteit, dus die MCP-achtige functionaliteit waarbij taalmodellen de mogelijkheid hebben om het internet op te gaan, om onderzoek te doen, om knopjes om te zetten, etc. Die kan je ook gebruiken om met andere AI's te praten. Wat zou je dan bijvoorbeeld kunnen doen? En dit is denk ik een beetje wat Apple voor ogen had heeft.
Er draait een taalmodel op jouw telefoon. Doen we even wat Google nu heeft uitgebracht. Een Gemma. Gemma zijn de open source versies van Gemini. Die heette Gemma. Daar hebben ze een Gemma model gemaakt. Gemma 3N. Die helemaal specifiek ontworpen is om thuis te zijn. Om een goed huis te hebben op een recente smartphone.
En daar wordt de beslissing genomen om te praten met een tool buiten dat datacenter. In Denemarken. Bijvoorbeeld. En waarom is dit relevant? Omdat, en dan schets ik het beeld even, in een andere wereld zou jij jouw vliegtuigmodus aanzetten op jouw smartphone en met AI gaan praten. En dan komt daar gewoon tekst terug.
Ja, dat is nu niet het gevoel. Je kan nu niet vliegtuigmodus aanhebben en GGBT gebruiken. Probeer maar. Gaat niet lukken. En OpenAI heeft ook niets ingebouwd om op terug te vallen. Er is gewoon connection lost. Dus dan eigenlijk sta je dan zeg maar, is het ineens heel helder hoe dun die telefoon is. Ja, kan niks. Kan niks. Want het hele brein zit buiten. Ja.
Op het moment dat jij, en dat is nu nog iets wat technisch complex is om op te zetten, maar wel mogelijk is, is dat jij, en dan doe ik even iets wat echt kan als jij een recent Google toestel hebt, dan kun jij daarop, Edge Gallery heet het volgens mij, het woord Edge, ik moet het toch even uitleggen, Edge is de rand. Dus als in de internetwereld gesproken wordt over Edge computing, dan bedoelen ze...
Compute, dus nadenken, wat jij net zei. AI die nadenkt zo dicht mogelijk bij de rand. En wat is de rand? Dat is net voor jouw telefoon of erop. Net voor jou eigenlijk. De rand van het internet eigenlijk. Ja, precies. Dus stel je voor dat internet komt uit die datacenters... door glasvezelkabels heen naar jouw huis, naar jouw wifi-router... naar jouw iPhone, naar het scherm van je iPhone. Dan tussen jou en die iPhone zit de rand. Dus edge compute betekent zo dicht mogelijk bij de eindgebruiker... die computation doen, nadenken.
Als je Edge AI zou doen... waar we eigenlijk over praten nu... om het even hip te laten klinken. Lokale Edge AI. Oké, meneer de consultant. Top. Dan ga je eigenlijk zeggen... de neuronen van AI... dus de transistors, de chips... die chip, die tensor chips... die pakken we letterlijk uit het datacenter. Die stoppen we in die telefoon. Dit is geen metafoor. Dit is echt zo. Ja.
En dan pakken we een stukje van dat neurale netwerk... wat we normaal gebruiken in een datacenter... dat stoppen we in een pixeltelefoon van Google. Zodat op het moment dat iemand de vliegtuigmodus aanzet... en jij zegt, hallo, ben je er nog? Dat die zegt, ik ben er nog hoor. Ja, dus om die AI-modellen te laten werken... zijn allerlei gespecialiseerde chips nodig. Die worden nu voor veel geld verhandeld... en komen in datacentra terecht om die...
Dus dan begin je dus. OpenAI kan dit niet. Maar Google kan dit wel. Er is dus een app die je kan downloaden op een Android telefoon. Waarbij je je internet kan uitzetten. En je alsnog antwoord krijgt op de vraag. En een ander voorbeeld te maken. Even voordat de mensen voelen wat ik hiermee bedoel. Je bent thuis. Je trekt de internetkabel uit je router. Je hebt geen internet meer. En je doet even je 5G modem op je telefoon uit. Dus je hebt alleen nog maar wifi. Dus je bent alleen nog maar verbonden met de wifi. Maar er is geen internet.
Alleen het lokale netwerk, niet het internet. Dan vraag je aan jouw lokale model, die jij heel hip op jouw telefoon hebt geïnstalleerd op aanwijzing van Wietsen. Zeg jij, doe de licht eens uit. En dan zegt hij, is goed. En dan gaat hij een toolcall doen naar jouw lokale home assistant of homie. En dan gooit hij gewoon het licht uit. Daar is geen datacenter voor nodig geweest om dit te doen. En als dat kan, waarom zou je dan nog met datacentra buiten de deur willen passen?