Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
In het Nederlands. Ik zal het maar even toegeven. Ik vind dat echt moeilijk. En ik ben al heel lang op zoek naar... Het zou toch zo fijn zijn als ik gewoon door mijn hele operating system heen... in dit geval mijn hele smartphone heen... ieder stuk tekst kan selecteren dat er gewoon een knopje staat. Herschrijf dit naar normaal. Dus het is nu gewoon een corrigeerknopje. Door heel iOS, overal waar je een keyboard hebt...
Dit heb jij nu. Ja, en dat doet dus, want jij vraagt lokaal. Dat is natuurlijk zo lekker snel en ook werkbaar, omdat hij dat gewoon met een lokaal modelletje die in je geheugen geladen staat, doet. Dus je kan met vliegtuigmodus aan teksten corrigeren. En dat heeft, ik bedoel, je kunt het een heel privacy argument geven. Ik vind het vooral gaaf dat het computerkracht gebruikt op mijn smartphone en niet in een datacenter ergens. Choose your cycles wisely. En dat het lekker snel is, omdat het lokaal is.
Dus ik gebruik het voor tekstcorrigeren en je kunt er nu ook in die locally AI een beetje mee praten met de modellen van Apple. Dat zou ik nog niet te vaak doen, want daar zijn ze nog eigenlijk niet voor gemaakt. Ze zijn gemaakt om te samenvatten en te corrigeren. Als je ermee in gesprek gaat, dan denk je, jeetje, ik had beter Gemma kunnen installeren, wat je ook kan doen. Ja, maar als je dat dan doet...
Hi, hier Marketing en Techbureau Debt. Elke week bespreken we hoe wij merken helpen in de wonderwereld van AI. Deze week ChatGPT Shopping. Want OpenAI introduceerde vorige week Instant Checkout. Een koopknop waarmee gebruikers straks direct in ChatGPT kunnen afrekenen.
Dankjewel. Niet afwachten, maar doen dus. Want wie vandaag begint, loopt straks voorop. Wil je meer weten? Ga dan naar devagency.com slash AI Report. Tot volgende week!
Welkom bij AI Report, de Nederlandse podcast over kunstmatige intelligentie. Waar we uitzoeken welke invloed AI heeft op ons werk, ons leven en de samenleving. Tegenover mij zit Wiets Hagen en ik ben Alexander Klöpping. Deze week heeft OpenAI Sora 2 gelanceerd. En het verschil met de vorige versie is verbijsterend. Voor het eerst begrijpt een AI-videomodel hoe de zwaartekracht werkt bijvoorbeeld. En Entropic komt met Claude Sonnet 4.5. Een model dat 30 uur aan één stuk kan doorwerken zonder menselijke tussenkomst...
En het bouwde bijvoorbeeld een complete kopie van Slack in één ruk door. En we duiken in een experimentele functie die laat zien waar AI-ontwikkeling naartoe gaat. Imagine with Claude, waarbij software zichzelf schrijft terwijl je het gebruikt. Er is heel veel om over te praten deze week. Heel veel plezier.
Wietse, wat een week. OpenAI heeft dit jaar zijn rekenkracht al negen keer zo groot gemaakt, heb ik gelezen. En dat is nog maar het begin. Uit interne Slackbericht van Sam Altman blijkt dat OpenAI tegen 2033 zijn capaciteit nog eens met een factor 125 wil vergroten.
Dat zou het energieverbruik trouwens ook boven dat van heel India uit tillen, een land met 1,4 miljard inwoners. En Nvidia blijft ondertussen steeds efficiëntere chips maken, dus die 125 meer capaciteit komt op de praktijk wel uit op veel meer dan dat misschien.
En dan roept dat de vraag op, waarom denken zij dat ze zoveel rekenkracht nodig hebben? Nou, deze week kwam iets bijzonders uit, namelijk Sora 2, de opvolger van hun AI-videomodel. Anderhalf jaar geleden liet OpenAI ons voor het eerst kennis maken met het eerste videomodel wat zo echt leek dat we een beetje begonnen te twijfelen aan...
Ja, wanneer is iets echt en wanneer is iets nep? Er waren nog wel wat probleempjes, want in die eerste versie van Sora klopte de fysica vooral voor geen meter. Basketballen bleven in de lucht zweven als je prompte dat er een basketbal gegooid moest worden. Of mensen die liepen door muren of watergolven die halverwege omhoog keren. Maar juist dat soort dingen zijn in Sora 2 gefixt. Voor het eerst lijkt de AI te begrijpen hoe de werkelijkheid daadwerkelijk werkt.
Dus als je een basketballshot mist, dan kaatst de bal nu realistisch terug van het boord. In plaats van dat hij spontaan naar de basket teleporteert. Dat was nog wel eens iets wat gebeurde in de eerste versie van Sora. Het model genereert nu ook gesynchroniseerd geluid bij de beelden, zoals we dat kennen van VO3 van Google.
Dialogen kun je horen, omgevingsgeluiden, geluidseffecten zijn allemaal te horen en het kan complexe bewegingen zoals gymnastiek trucs of schaatsprongen nabootsen zonder dat opeens je ernaar zit te kijken en denken dit is duidelijk AI, dit is fake.
Open Air heeft vergelijkt de oorspronkelijke Sora met GPT-1, dat was een beetje het eerste bewijs dat de technologie zou werken, dus dat is voor ChatGPT voor de helderheid, gewoon een eerste proefversie. En Sora 2 zou dan in vergelijking het GPT-3,5 moment zijn, dat is de technologie die achter ChatGPT zat en in het begin en dat is dus het punt waarop de technologie echt bruikbaar werd en gebruikt.
Bij OpenAI ging Chet Spiti natuurlijk toen pas echt, toen ging het allemaal echt heel hard opeens. Wij vonden destijds Sora 1 zo gestoord dat we een noodaflevering over opname wietzen. En nu we filmpje na filmpje bekijken van Sora 2, wij hebben het hier nu niet over gehad buiten de opname, maar de rillingen lopen redelijk over mijn lijf.
De meest populaire video die nu in de Sora app circuleert is Sam Altman die betrapt wordt met bewakingscamera als hij grafische kaarten probeert te stelen uit een winkel. En dan roept hij tegen de camera alsjeblieft ik heb dit echt nodig voor inference. Dat vond ik heel grappig. Jij hebt ongetwijfeld heel veel video's gezien. Wat vind je van de sprong die gemaakt is?
En heb je een idee van hoe ze dit gedaan hebben ten opzichte van de eerste versie van Sora? Is hier iets fundamenteel anders gegaan of is het gewoon er meer energie tegen aangegooid? Wat sowieso opvalt bij deze hele release van de hele drie traps rakets Sora is best wel brutaal. Wat bedoel ik daarmee? Ik gebruik dat woord niet zomaar.
Als er een herkenning met merken die in het echte leven voorkomen zijn, dan gaat dat beeld viraler. Ja, interessant. En nu lijkt het, dat is volgens mij gewoon zo, is dat er gezegd is, jongens, wat daar toen gebeurde, ons Ghibli moment, dat gaan we nu nog een keer doen.
Ja, ik snap wel waarom het woord brutaal gebruikt, want ze hadden die beveiliging redelijk op orde en hebben hem hoogstwaarschijnlijk expres eraf gesloopt. Terwijl er een spotlight op alles ligt wat met intellectuele eigendomschending te maken heeft, als het gaat over AI, dan is dit inderdaad wel een gedurfde keuze.
Nou, laten we dan maar eens even uitwerken hoe dat sociale netwerk eruit ziet. Inderdaad, OpenAI heeft dus een eigen sociale netwerk geïntroduceerd. Ik zeg er gelijk bij in de Verenigde Staten en Canada en alleen maar op uitnodigingsbasis. Dus we gaan nu over iets praten waar je in de praktijk niet bij kan. Maar toch even, het is een iOS-app die verdacht veel lijkt op TikTok. Een feed met allerlei short video's, maar ook met profielpagina's, volgers en zelfs DM's.