Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
van ruim een halve centimeter in een stalen koelkastdeur geslagen. Daarbij een medewerker op een haar na gemist. Figure AI noemt de beschuldigingen onwaarheden. De zaak zou een van de eerste klokkenluiderszaken... rond de veiligheid van humanoids kunnen worden. Goed, we duiken straks dieper in Diepziek, Mistral... en een uitgelekt document van Claude. 14.000 woorden over hoe Anthropic hun AI heeft gevormd. En daar staan wat bizarre dingen in. Maar eerst hoor je Marian en Lucas van Dept.
Wat ik het opvallendste vond aan dit nieuws is de maat waarin dit dus onder de motorkap gebruikt wordt door allerlei bedrijven. Die blijkbaar nu als methode hebben, we gaan eerst een functie maken. Stel je bent Airbnb en je hebt een functie gemaakt waar je je AI voor wil hebben. In bijvoorbeeld de manier waarop mensen zoeken naar appartementen.
Dan maken ze die functie met een gesloten model... wat ze dan ook gebruiken met OpenAI of met Cloud. Lekker snel prototypes maken. Lekker snel prototypes maken, want dat is gewoon het beste. Maar vervolgens realiseren ze zich dat als ze het in de app willen verwerken... zoals Airbnb het in haar app wil verwerken... dat het heel duur of traag is. Dus je maakt een grote afhankelijkheid van een ander bedrijf. Het is gewoon heel duur of het is heel traag. En dan...
Zeggen ze dus, ik zag een voorbeeld van iemand die dit deed, dan vervangen ze dat stuk door een gelijkwaardig open source model en dan draaien ze het vervolgens op hun eigen servers en kunnen ze de snelheid optimaliseren en kunnen ze het goedkoper maken. Is dit een soort van standaard manier van werken? Je prototypt het met een groot model en vervolgens draai je het op een Chinees model zonder dat je het de mensen vertelt?
Ja, en ik moet ook zeggen, ik hoor dit dus best wel vaak ook... van mensen die ook een beetje proberen te voorspellen... hoe het allemaal zal gaan de komende jaren. Dat zij zeggen, ja, het is heel goed mogelijk... om als Nederland ook concurrerend te blijven... door gewoon Chinese modellen bij bijvoorbeeld de overheid te gebruiken... en die lokaal te draaien. Dat je QN of inderdaad die modellen van DeepSeek...
Oké, Europa dan, Mistral, je noemde het al even, lanceerde deze week de derde versie van haar product met tien nieuwe open source modellen. Zijn dat dan allemaal verschillende... Ja, met verschillende taken en verschillende groottes. Ja, waar moet ik dan aan denken? Want groot en klein begrijp ik. Groot kan veel, dus tekst en beeld en geluid en dat allemaal kunnen produceren en lezen. En kleine modellen die kun je lokaal draaien zijn sneller en goedkoper.
Ja, wegkomen zeg je dan. Maar het haalt het niet bij DeepSea, helemaal niet bij die grote Amerikaanse modellen. Maar jij zegt dus eigenlijk dat is niet erg, want afhankelijk van waar je het voor gebruikt, kan dat prima zijn. En kan het dus op een bepaalde manier zelfs goedkoper zijn dan het gebruik. Misschien helpt het, want dit is in het geval van Android, laatste versies en iOS, meest recente versies op de wat duurdere iPhone zo.
Op iOS gaat het in ieder geval nog zo zijn dat er zowel Gemini gebruikt gaat worden als OpenAI, als Apples eigen model. Wat jij net beschreef is wel heel erg in de buurt van wat Apple heeft gelanceerd al aan de techneuten in ieder geval.
En wat we van Google absoluut niet hoeven te verwachten. Die gaan gewoon lock-in binnen het Gemini-model. Wel allemaal verschillende Geminis. Het hele boeket, maar allemaal Gemini. Precies. Je gaat niet opeens met Chachapati praten via de assistent van Google. Want hij heet Gemini en dat is wat je zal krijgen. Ja, het roept toch wel de vraag op dat er een alternatief is waarvoor je gewoon als simpele ziel als ik, dat dat ding, dat je kan zeggen, nou, als het even kan, doe dan de Europese. En als het te moeilijk is voor dat ding,
Ja, we moeten verder nog over zeggen. Mistral, het gaat ons niet opeens dat we in al die testen mee gaan komen als Europa. Want het haalt nog niet bij DeepSeek. Maar met al die kleine modellen zou het zomaar nog steeds heel boeiend kunnen zijn. Ze hebben investeringen van ASML en NVIDIA natuurlijk gehad. Samenwerking met HSBC en Stellantis.
Er is een document uitgelegd van de firma Anthropic dat ze het soul document noemen, de ziel van Claude. En dat doet natuurlijk de wenkbrauw fronzen. Wat is een ziel document als we het hebben over een taalmodel? Het is ook geen klein zieldocument. Het zieldocument bevat 14.000 woorden aan interne instructies.
En die bepalen dus hoe Anthropics AI denkt, zich draagt en voelt. Onderzoeker Richard Wise wist het te ontfutselen door slim te prompten. En Anthropics heeft de authenticiteit bevestigd. Heb je een deel, ik ga er niet vanuit dat je het hele document hebt gelezen. De helft heb ik gelezen. O, je hebt de helft daadwerkelijk gelezen. Hoe lees je dit document?
Ja, want dit is dus belangrijk om erbij te zeggen. Het is niet het systeem prompt, want dat is de fundamentele instructies die bepalen hoe een AI-model zich gedraagt. Dat is eigenlijk het DNA van een AI-assistent. Die bepalen wat het model wel en niet mag doen, hoe het moet reageren, wat voor persoonlijkheid het uitstraalt. Dat heeft ieder AI-bedrijf.
Niemand deelt dat overigens, behalve Anthropic. Maar dat is iets anders. Dit is dus een onderliggend document waarmee ze Claude hebben gevormd. Het DNA achter het DNA, zou je kunnen zeggen. Precies. Dus dat wil veel meer... Het is een beetje moeilijk om dat onderscheid te maken. Het is niet zozeer wat hij doet en welke persoonlijkheid hij heeft. Maar het is meer een soort van... Wat ben jij eigenlijk voor soort wezen? Sterker nog, ik denk dat je zegt het wel mooi...
Eigenlijk willen we jou niet maken, want jij bent ook heel potentieel gevaarlijk. Ja, ze zeggen, Anthropic schrijft in dit document dat ze oprecht geloven dat ze een van de meest transformatieve en potentieel gevaarlijke technologieën in de menselijke geschiedenis bouwen. Maar toch gaan ze door, niet uit een soort van cognitieve dissonantie schrijven ze, maar als bewuste gok.
Als er krachtige AI sowieso gaat komen, dan is het beter om safety gerichte labs aan de frontier te hebben. En daarom noemt Anthropic Cloud in dit document de grote gelijkmaker, omdat iedereen toegang verdient tot substantiële hulp die vroeger was voorbehouden aan geprivaliseerden. Jeetje mina.
Ja, dat maakt het bijzonder. Het is niet iets wat hij meekrijgt als jij een opdracht hebt gegeven. Want dat doen normaal gesproken AI labs. Die voegen een systeem prompt toe nadat ze het model getraind hebben. Maar Anthropic gebruikte dit document al tijdens het trainingsproces. Ze hebben Claude er letterlijk mee gevormd dus.
Dat is een beetje anders dan... Het voelt bijna als... Ik ben een beetje moeilijk om al die menselijke metaforen te gebruiken. Maar dat dit op een soort meer intuïtief air quotes niveau... Maar nog even over dat safety gericht. Dat ze dus eigenlijk zeggen... Dit is eigenlijk heel gevaarlijk wat we aan het doen zijn. Maar het gaat toch gebeuren. Dus dan kunnen we maar beter meedoen. En wij vertrouwen ons eigen ethiek wel. Dus dan in ieder geval...
Doen we mee in een race en dan hebben we een kans om te winnen. Maar dit komt uit de koker van de CEO, denk ik hoor. Dit is echt Darius Emosee speaking. Dat is wat hij in interviews ook heel de tijd zegt. Maar dat dat marketing is, dat begrijp ik. En ik begrijp ook dat het iets is wat je echt kan voelen. Ik wil dat verder niet in twijfel trekken, maar het zou allebei waar zijn.
In het begin was kloot natuurlijk een heel irritante taalmodel om te gebruiken. Want alles wat een beetje leek op... Het was een soort van ingebouwde politieagentin. Stel je voor, ik heb wel eens gedaan dat ik boos was op iemand. En dat ik dan vroeg, hoe schrijf ik een bitse gemail terug naar deze persoon die mij onheus bejegent. En dat ding zei, het is niet.