Wietse Hage
👤 SpeakerAppearances Over Time
Podcast Appearances
Ja, ik zou zeggen, die treingesprekken die je niet in het trein zou voeren, doe je wat mij betreft met Le Chat, met Mistral. Dan loop je ook zes maanden achter, ongeveer op de frontiermodellen. Omdat het dan op Europese service gebeurt, bedoel je? Ja, en als je dan gesprekken voert, even vanuit het individu gezien, gesprekken voert over...
Het samenvatten van je VV1 notulen. Daar zou ik lekker GPT voor gebruiken. Maar in die VV1 notulen zitten wel mogelijk adressen en namen. Dus die zou ik niet zo snel in ieder andere online gratis AI gooien. Gratis is natuurlijk enkel en alleen mogelijk...
Wat je ervoor terugkijkt, trainingsdata is. Dus ik ga ervan uit, aanname van mij, geen idee, maar dat Kimi zegt, joh, prima dat je dit gratis gebruikt, maar dat geeft ons wel heel veel data om ons model op te finetunen, zeg maar. Ja, en voor dingen waarbij het absoluut niet uitmaakt dat het op straat komt te liggen, kun je dus prima, als je dat voornamelijk gebruikt voor CHPT, dan kun je dat dus prima opzeggen en dit gebruiken gratis.
Ja, de vraag is natuurlijk wel een beetje, ik zou het dan meer door elkaar heen gebruiken. Ik zou sowieso altijd meerdere agents gebruiken of interfaces gebruiken, want de modellen zijn gewoon niet gelijk, wel in benchmarks komen, maar uiteindelijk voelen ze toch anders. Ik gebruik zelf ook nog steeds in ieder geval drie modellen door elkaar heen.
Je kunt hem toevoegen aan je ensemble, aan je boeket. Al is het alleen maar om eens te kijken hoe dat dan nu gaat. Technisch gezien zou je kunnen zeggen, ik maak software waarin ik AI stop. Dan zou ik zeggen, hou Kim je in de gaten om te kijken of je hem kan verwerken in je flow. Desnoods kies je ervoor om te draaien op je eigen infra.
En als eind-eindgebruiker, gewoon de particulier zeg maar, kan je spelen en reasoning traces lezen. Dus het reflectiemomentjes en de interne dialoog. Die zijn veel uitgebreider in die Chinese open source modellen. Die zijn gewoon eerlijk in plaats van al die AI van Amerikaanse bedrijven die dat hele gedachtenproces eigenlijk censureert.
Ja, dus dit is wat Mistral bijvoorbeeld al best wel lang doet ook. Dat is een van de dingen waar zij vrij vroeg bij waren. Kijk, uiteindelijk in een datacenter... en trouwens ook op een laptop doet dat even niet toe. Als je zo'n model hebt... wil je eigenlijk niet het hele model in je geheugen hoeven laden. Want zolang het geheugen bezet is, is dat duur. En je moet gewoon meer...
Je moet ook meer hardware hebben om zo'n groot model in te kunnen laden. Dus het is veel mooier als je zegt... ik stel een vraag over wiskunde. Dan kan eigenlijk het hele deel wat over geschiedenis gaat. Even als voorbeeld, zeg maar. Zo'n model is heel breed. Dat is een soort brede savant, zou je kunnen zeggen. Met allerlei expertdomeinen.
En uiteindelijk als je die experts slim defineert... dus waar eigenlijk weinig overlap is... want als je experts defineert met veel overlap... worden ze constant allemaal geladen, want ze hebben allemaal elkaar nodig. Maar als je meer wiskundigen of bijvoorbeeld programmeervragen stelt over software... heb je als je software aan het maken bent met een taalmodel... de complete historie van Europa nodig? Nee. Dus dan kan eigenlijk dat deel van het model... Oh, wat grappig. Ja, dus het mooie is dat je de vraag stelt en dan eigenlijk wordt...
Alleen het deel van het model dat nodig is om die vraag te beantwoorden, warm, hot in het geheugen geladen en de rest staat zeg maar koud klaar. Dat is sowieso nog een klein puntje over Kimica 2, is dat de training, zoals gezegd, dus we moeten even geloven dat dat waar is, volgens mij gebeurt dus voor iets meer dan 4 miljoen dollar. Dat is extreem goedkoop.
Extreem goedkoop. Dus dat maakte het een soort semi-DeepSeek momentje. Want wat er toen met DeepSeek gebeurde, dat was dat de Nvidia aandelen daalden. Omdat er werd gedacht, jeetje, als jij je kan trainen van DeepSeek R1 op zo'n kleine infrastructuur. Want zij hadden het echt over een miljoen maar of zo toen. Bleek later iets meer, maar niet honderden miljoenen. Is dit met Kimi K2 verhaal weer, zeggen zij heel trots in hun press release erbij. 4,1 miljoen volgens mij.
Nou, het is wel zo dat, in ieder geval, dit was destijds tijdens de Deep Seek R1 saga ook het verhaal. Dat er vooral door de labs gereageerd werd met, ja, als je de handleiding eenmaal hebt, die wij hebben uitgevonden hoe je zoiets maakt. Dan is het makkelijker om het na te doen. Maar ja, iemand moet hem wel de eerste keer maken, zeg maar. Dus ze waren ook een beetje gefrustreerd natuurlijk. Nou doen wij die diepte investering. Ja, de Chinezen kopiëren het gewoon. Ja, je maakt een cover van die track. Dat wordt ook een hit. En dan ga je zeggen, kijk, dat kan ik echt met een heel klein beentje. Ja, maar maak het originele nummer maar eens, hè.
Eigenlijk was de interpretatie destijds van de reactie van de markt op R1 klopte eigenlijk niet helemaal. En dus nu is die reactie niet nog een keer, want er is een soort van wijsheid nu. Dit neem ik even aan. Het is wel en het is zo dat de moot, dus de slotgracht, het unieke selling point wat Nvidia heeft slash had op je moet Nvidia chips hebben, want anders kan je niet zoveel rondom AI. Dat is eigenlijk steeds minder waar.
En Tropic heeft nu een heel stuk infrastructuur aangekocht bij Amazon, een gigantische miljoenendeal. En dat gebeurt allemaal op de, wat zij noemen hun Tranium chips, heet dat volgens mij. Je moet altijd een soort klinken als het een soort element is, een soort uranium en dan heet het Tranium ofzo uit mijn hoofd.
Dat zijn Amazon chips. Ja, dat is niet een of andere press release over fake Amazon chips. Nee, dit is gewoon server datacenters gebouwd waarop nu de volgende cloud getraind wordt. En dat zijn geen Nvidia chips. En zo zijn er eigenlijk nog wel meer. En voor inference heb je Grok met een Q, Cerebrus. Dat zijn ook geen Nvidia chips. Dus
aan zowel de trainingkant van het AI-infrastructuurverhaal... als de uitvoering van de AI en het hosten van de AI-kant... komen nu allerlei alternatieve chips op de markt en chipmakers. En dat is ook maar goed ook, denk ik, voor een soort gezonde markt... en ook een afhankelijkheid van één bedrijf... moet je eigenlijk helemaal niet die monopolie willen. Dus ik denk dat de klap wat minder hard is... omdat inmiddels wel duidelijk is dat de moot van Nvidia... langzaam maar zeker aan het verdwijnen is. Of in ieder geval aan het verkleinen is.
Dan, onze vriend van de show, Satya Nadella, zat vannacht bij Dwarkash. Heb je die podcast geluisterd? Ja, hij was anderhalf uur, wat heel kort is voor een jammer. Ik dacht wel, wij hadden hem maar een kwartier. Maar een kwartier, dit is toch baas boven baas. De absolute baas boven baas. Heeft hij dingen gezegd? Ja, een beetje. Ik moet wel zeggen, het begin, wij weten ook hoe dit werkt, jij en ik.
Er zit een toertje door een nieuw datacenter van Microsoft bij. Dat is natuurlijk ook een beetje de afspraak. Ik kom een interview doen, maar ik kom ook even een rondje lopen. Maar dan lopen ze dus heel casual door een mega datacenter heen. En dan, ja, dat zeg ik goed. Want dat is één enkel datacenter...
met tien keer de capaciteit waarop GPT-5 getraind is. Even een soundbite van Satya Nadella. Dus de infrastructuur die nodig was om heel GPT-5 te trainen... hebben ze daar keer tien staan in één gebouw... terwijl GPT-5 ook nog eens getraind is in meerdere datacenters tegelijk. Het is een groot datacenter. Ja, even de flex. Leg het even op tafel. Maar goed, dan komt meteen de vraag van Joachim. Oké, zijn die modellen zo belangrijk dan?
Betekent dat, zijn jullie hier dan je eigen MSGPT-team aan het trainen of zo? En dan zegt eigenlijk Satya Nadella, nou, wij geloven helemaal niet zo in de moot van modellen. Het is best wel juicy, gezien inmiddels hebben ze nog 27% aandeel in open jij. Wat zegt hij daarmee?