Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
Lijkt me een uitstekende samenvatting. Dank voor dit metaperspectief, Wietse. Doe mijn best. Het was leuk om naar jou te luisteren, maar Carpathie moet ik wel zeggen. Hij haalt meer plaatjes. Ja, hij haalt wel meer plaatjes, dat is waar. Goed, dank voor het luisteren naar AI Report. Wij danken Sam Hengeveld voor de edit, Pankra voor de vormgeving. Als je een lezing wil van Wietse Hagen, of van mij, dan kan dat. Mail ons op lezing.aiweport.email.
En als je op de hoogte wil blijven van het laatste AI-nieuws twee keer per week met tips en tools, dan kun je je aanmelden voor onze nieuwsbrief ai-report.email. En als je vandaag nog wil beginnen met AI binnen jouw bedrijf, ga naar deptagency.com slash ai-report. Tot volgende week. Tot volgende week.
Welkom bij AI Report, de Nederlandse podcast over kunstmatige intelligentie. Waar wij uitzoeken welke invloed AI heeft op ons werk, ons leven en de samenleving. Ik moet je iets bekenden, lieve luisteraar. Heel soms bekruipt me het gevoel dat ik een beetje grip op de zaak krijg tijdens deze hele AI-race. Zo raakte ik de afgelopen weken bijvoorbeeld overtuigd dat de impact van AI op onze banen gigantisch gaat zijn. En dat we eigenlijk geen politici hebben die mij het gevoel geven door die transitie te kunnen navigeren.
Maar net als zo'n mening dan begint te kristalliseren... lees ik weer dingen die me compleet van mijn stut brengen. Eerst Apple. Apple kwam deze week naar buiten met onderzoek dat eigenlijk zegt... die nieuwe superintelligente AI-modellen waar iedereen het over heeft... die kunnen helemaal niet nadenken. Dat is gewoon een illusie. En vrijwel tegelijkertijd publiceert Sam Altman zijn toekomstvisie... waarin hij eigenlijk zegt...
dat het al gebeurd is, dat de superintelligente revolutie al begonnen is en dat de komende jaren zo snel zullen gaan dat we de wereld niet meer zullen herkennen in 2030. Dus wie heeft er gelijk? Het bedrijf dat zegt dat AI niet eens kan redeneren? Of de man die beweert dat we op het punt staan de hele wereld opnieuw uit te vinden? En misschien is die verwarring wel precies hoe het moet voelen wanneer je midden in een revolutie zit. Welkom bij AI Report.
We hadden net ons webinar voor onze betaande abonnees. En daarin vroeg iemand... Wat als je AI in een wetenschapsmuseum zou presenteren? Hoe zou je dat dan visualiseren? Wat voor expositie zou jij maken in Nemo? En toen zei hij...
We hebben iets nieuws voor luisteraars, namelijk webinars. Dat doen we één keer per maand en daarmee kun je vragen stellen aan mij en Wietse. Bijvoorbeeld, wat als je een museum hebt en wat voor expositie moet je dan maken? Maar je kan ook vragen over hoe AI agents werken of hoe je het dan in de praktijk gebruikt.
En dat doen we iedere maand. En de volgende is op 10 juli. De laatste voor de vakantie. En daar kun je bij zijn als je wil. Ga daarvoor naar ai-report.email.webinar. En er is nog iets anders wat we hebben voor abonnees. Namelijk een nieuwe prompt library. Dat ken je misschien uit onze nieuwsbrief. Waar we uitleggen hoe je beter met AI-modellen kan praten.
Dat doen we iedere week en daar hebben we nu een soort naslagwerk van gemaakt. Als je wil beginnen bij het begin, de basics, hoe bouw je een goed prompt op of hoe stel je een goed systeemprompt in waardoor AI beter doet wat je wil, dan beginnen we daar. Maar we gaan ook dieper voor mensen die al meer ervaring hebben, zoals wat je kan noemen promptchaining of metaprompting. Dat is dus AI die je helpt om betere prompts te schrijven.
Grapper is. En niet alleen uitleg, ook heel veel concrete voorbeelden waarbij je direct aan de slag kan gaan. Bijvoorbeeld op je werk. Zowel zinvol voor beginners als ervaringsdeskundigen, denk ik. Je kunt dat bereiken via erreport.email slash prompt library. En de link staat ook in de show notes.
Het lijkt alweer een eeuw geleden, maar afgelopen februari verklaarde vice-president J.D. Vance van de Verenigde Staten dat Amerika de AI-race wint. En quote, van plan is dat zo te houden. Europese leiders zagen die uitspraak als een dreigement. En dat is goed nieuws gebleken voor de Franse AI-startup Mistral, want die zag de vraag naar haar product exploderen.
Nu bouwt Mistral een datacenter vlakbij Parijs met 18.000 Nvidia chips. Persoonlijk gesteund door president Macron, die ook al aangeeft dat hij persoonlijk allerlei grote bedrijven in Frankrijk aan het bellen is om te stimuleren om Le Chat te nemen. Nou is dat niet hartverwarmend, Wietse. Mistral concurreert met OpenAI en Google in de, ja, niet alleen qua benchmarks, maar ook op het gebied van geopolitiek.
Maar maakt ondertussen op dat gebied wel een opvallende draai. Want in plaats van alleen maar in te zetten op die benchmark race, waarbij ieder maker van een taalmodel probeert het beste te zijn in een element, bijvoorbeeld programmeren, richten ze nu ook hun pijlen op infrastructuur met mistral compute. Oké Wietse, wat is hier aan de hand?
Als we straks een minister van AI hebben, dat die gewoon kan bellen met de salesafdeling van Mistral. Wat krijg je dan?
Nu qua chips. Het trager draaien op andere chips, maar dat is dan weer heel erg inefficiënt. Ondertussen, een beetje in dezelfde regionen, lanceert Apple het nieuwe Foundation Model Framework. Daarmee kunnen app-ontwikkelaars nu gebruik maken van dezelfde lokale AI die Apple Intelligence gebruikt.
Ontwikkelaars krijgen dus eigenlijk toegang tot lokale AI in hun apps. Dus je bent een appontwikkelaar van iOS, jij maakt allerlei appjes. Nu moet je als je AI wil integreren in je app een API aanroepen van OpenAI of welke provider je dan ook voor taalmodellen gebruikt. Dat is niet lokaal, daarvoor gaat het internet op. Het is ook nog vrij complex om dit soort dingen te integreren. En Apple maakt het nu makkelijker om AI te draaien die op je eigen telefoon draait. Waarom is dit zo boeiend, Wietse?
Dat is eigenlijk heel inefficiënt. Je kan dan weliswaar een AI dan al lokaal draaien... omdat je lokaal Mistral kan gebruiken op je iPhone. Maar dat taalmodel, wat dan 500 MB is... of wat het dan ook is om te downloaden...
een paar gigabyte is... kan dan weer niet gebruikt worden door een andere app... die diezelfde functionaliteit wel zou willen gebruiken. Dat kan nu niet. En daar maakt Apple nu iets over koepelend. Het betekent ook dat het makkelijker wordt voor developers... om lokale AI aan te spreken dan voor alles maar...
Het is een soort privacy waarschuwing eigenlijk. Jij hoopt heel erg dat ze de gebruiker bewust maken van het feit dat er een cloud call wordt gedaan. Ik zou dat het liefst zien op een subtiele manier. Ook nog eens op een manier waarmee ze van kunnen zeggen laat me met rust. Ik respecteer dat. Zoals zet mijn microfoon uit, zet mijn camera uit. Dat voelt onprettig als dat ding meeluistert terwijl er eigenlijk geen reden voor is. Dan heb je dat door.
Er is een beetje een tendens waar Apple belachelijk gemaakt wordt om haar waarschijnlijk achterlopen op het gebied van het maken van taalmodellen en het integreren in hun software. Zij hebben afgelopen week een weer grote keynote presentatie gegeven met updates voor ontwikkelaars.