Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
Leuke truc die taalmodellen. Leuke truc het voorspellen van pixels en video's en alles. Maar dat heeft gewoon weinig te doen met wat wij als mensen kunnen. Nog even los van wat wij als mensen zijn. Dat is een hele filosofische discussie. Maar vooral, dat schaalt niet naar een niveau. Je kunt niet zeggen met wat trucjes en wat tweetjes en wat superhero pakken...
Kunnen wij van een GPT. Een tekst voorspeller. En een beetje beeld voorspellen. Komen tot iets wat 95% van het kenniswerk gaat doen. Als dat even de definitie van AGI is. Om daar wel te komen. Moeten we terug naar de drawing board. We moeten hele nieuwe vormen van AI gaan uitvinden. Wat ik vorige week zei.
Omdat ik die optie open hou is, wat op het moment dat je een soort, ik had het toen over zo'n compound eye, dus dat een insect heeft duizend, een oog wat bestaat uit duizend stukjes, zijn het niet straks duizend AI'tjes die met elkaar samenwerken in een soort team en wordt dat team dan AGI? Nou, eigenlijk zou je kunnen zeggen dat wat Poetic doet, dat die groep mensen die bij DeepMind vandaan komt,
Een team van AGI's. Of van AI's bedoel ik. Ja, die eigenlijk zegt... Ja, inderdaad. Eén bandmember, een soloartiest is niet genoeg. Maar als we die band slimmer maken en eigenlijk... Ja, maar eigenlijk als ik je goed begrijp zegt Carrie Marcus dus als een van de sceptici zegt...
Waar je nog misschien om kan lachen. Maar als het straks testjes zijn die wel heel erg lijken op wat wij doen als wij werk doen. Dan is het niet zo grappig meer. Ik denk dat het belangrijk is. Ja, precies wat jij zegt. Belangrijk is dat ensemble verhaal. Dus het combineren van verschillende. Een soort knowledge of the crowds. Dus als je zegt de groep weet meer dan het individu. Is een van de stapjes van Poetic. Ja.
Ze hebben meer ideeën. Ze hebben een deel open source gemaakt. Zoals ze zeiden, voor andere partijen ga je hier eens naar kijken... want we denken dat we wat fundamentele dingen hebben uitgevonden. Ze zijn ook VC-funded, dus ze houden wat dingen geheim. En even voor jouw punt, waarom is het... Why would we care? Waarom gaan we het hier nog veel meer over hebben in de toekomst? Wat Poetic nu zegt is, ten eerste...
Het Superman pak wat we hebben gemaakt kan je om alle modellen heen doen. En dat is waar. Ze hebben niet alleen maar Arc AGI 2 getest met Gemini 3 Pro. Die kwam er als best uit. Dus Gemini 3 Pro plus Superman pak van Poetic heeft nu die hoge scoren gehaald. Ze hebben ook alle scoren gepubliceerd voor andere modellen. Die zijn ook allemaal hoger dan het model alleen. Exact hetzelfde pak.
Niet een pakje voor Gemini. Dat is al super vet. Dat is gaaf, want dat is generaliseerbaar. Het woord generaliseerbaar is waar we het komende jaar over gaan hebben. Is het generaliseerbaar? Ten tweede hebben ze gezegd, aankondiging op hun blog, ik ben heel benieuwd. We hebben niet alleen maar Arc AGI 2 geprobeerd met dit harnas. We zijn alle andere benchmarks ook aan het afgaan.
Dus verwacht de komende maanden... Zoals wat dan? We hebben een hele lijst van de Humanities Last Exam, bijvoorbeeld. De hele belangrijke benchmark wordt dan Humanities Last Exam genoemd. Dat is ons laatste examen. Heel dramatisch. Ook een keer een nieuwe, maar oké. Ook daar komt dan waarschijnlijk weer een versie 2 en een versie 3 van. Maar bijvoorbeeld ook voor programmeren. Absoluut. En dan wordt het wezenlijk. Ja, want wat ik nu zelf... Kijk, ik zie het wel als een soort poetic moment...
dat ik denk, oké, wauw, wat zij nu bewezen hebben... mogelijk, zeer mogelijk...
is dat er nog ontzettend veel te halen is... zonder dat je de base models hoeft aan te passen. Zonder al die GPU-cycles bij het trainen van het basismiddel. Ja, je gaat de GPU-cycles gebruiken bij het testen. Op een andere plek, maar dan nog. En het laat mij zien dat... Kijk, uiteindelijk... jouw smartphone, jouw computer, jouw tablet... die apparaten zijn ook een hele lage constructie. Daarmee bedoel ik...
Er zit een computer CPU in. Die kan eigenlijk alleen maar enen en nullen optellen. En vermenigvuldigen. Dat is gewoon een basis math processor. Plus nog wat dingen eromheen. Daar overheen is allemaal software gebouwd. Op dat basisprincipe van. Eigenlijk zeg je eigenlijk tegen die processor. Luister.
Als jij gewoon heel goed bent in datamanipuleren... je hoeft niet te weten wat het is... maar als jij gewoon heel goed bent in datamanipulatie... dan gaan we daar abstractielagen overheen bouwen... waardoor er uiteindelijk een computergame op gaat draaien. Op CPU-niveau heb je daar helemaal geen zicht op. Dat is alleen maar het heen en weer gaan van nullen en enen. Maar uiteindelijk is de eindgebruiker een computerspel aan het spelen. Mijn punt is dat de modellen zoals Gemini...
waarschijnlijk de rol zullen gaan vervullen van een fundamentele schakel... in zo'n AGI-ensemble-achtige scaffold. Dus er gaan lagen over de GPTs en de Geminis van deze wereld... heen gebouwd worden. Niet door de Googles van deze wereld, maar door andere partijen... die eigenlijk als brein, een deel van het brein... die modellen gebruiken. Maar de rest komt door alle laagjes eroverheen. En dat is een andere architectuur. En daardoor, wat mij betreft...
de discussie LLM's of Gemini's kunnen niet AGI worden... dan zou ik zeggen, oké, fair. Dan kan je terug naar de tekentafel of zeggen... ze worden onderdeel van een samenwerking tussen allerlei laagjes. Ondertussen komen er nog steeds basismodellen uit... zoals dus 5.2 van TGPT zou je kunnen zeggen...
Ik zei in het begin, jij bent hier kritisch over. Waarom ben je hier eigenlijk kritisch over? Nou, ik vind in de... Dit gaat waarschijnlijk gebeuren deze week. Of is al gebeurd als je nu luistert. De Open AI speelt een beetje paniekvoetbal op dit moment. Zo voelt het voor mij. Dus als jij een roadmap hebt waarop je bepaalt wat je het komende jaar gaat doen. Of het komende halfjaar. En je past die roadmap aan aan de hand van wat je concurrenten doen. In een paar weken, laten we wel wezen. Ja.
Ik ben kritisch omdat ik... Ik zit nog in het vorige verhaal en dat sluit hier ook op aan. Het is een beetje een ingewikkeld ding aan het worden. Omdat wat GPT-5 was ook al een deel Superman pak is. Het is ook al een model plus dingen eromheen. En dan kunnen wij zeggen hoeveel van het pak zit inmiddels in het model. Het doet er uiteindelijk even niet toe. Het komt erop neer.
dat er het steeds moeilijker aan het worden is om een soort van eenvoudig, zonder allerlei metaforen en moeilijke lage modellen van processors en zo erbij te halen, te praten over wie heeft nou de beste AI. Die vraag is legitiem. Die kan je ook stellen. Maar dan vraag je eigenlijk wie heeft de beste modellen plus model scaffolding in de beste UI, waardoor een eindgebruiker denkt ik wil Gemini gebruiken in de App Store. Ja.
En dat doet die eindgebruiker er ook niet toe. Die heeft gewoon vragen. En die heeft gewoon puzzels met de hoofdletter P. En die moeten opgelost worden. Puzzels in PowerPoint en Excel. En ik denk wel dat... Om toch nog even op GPT 5.2 te komen...
Waar Open en jij nu mee zitten is dat ze eigenlijk in die scaffold er om die modellen heen allerlei trucjes aan het doen zijn, kiezen voor denken of niet denken, de tone of voice heel erg aan het aanpassen zijn, kies maar je eigen tone of voice. Het voelt allemaal best wel, ik kreeg vanochtend een pop-up in ChatGPT die zei hoe wil je eigenlijk dat we tegen je praten, dat ik dacht ja ik heb het bij Gemini nooit hoeven zeggen en dat gaat prima.