Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
Die dus zowel te maken heeft gehad met een andere persoonlijkheid en dacht, what the fuck is dit? En aan de andere kant opeens een ding had wat minuten wachten met antwoord geven op vragen en misschien ook weer een beetje heeft opgerekt wat het model eigenlijk allemaal kan.
En dat kan die gewoon. Wat is dat dan? Wat is dan twee uur autonoom werk? Een deep research-achtige taak. Eigenlijk is deep research een van de eerste mainstream agent-achtige AI's. Dus die zelf websites gaat bezoeken, die documenten gaat lezen, daar iets mee doet, dat hij samenvat en dan een tekst schrijft?
En als ik dat goed begrijp, is dus deze meter benchmark, noem je dat? Kun je dus langs de voorspelling die mensen hebben gedaan voor dat AI27, hoe moet je dat noemen? Rapport of scenario, hoe je het wil noemen. Zij hebben een soort van voorspellend lijntje daarbij getekend op een tijdlijn. En daar zit hij gewoon nog on track. Hij viel heel mooi op zijn plekkie.
Of een duimpje naar beneden, is maar net hoe je dat scenario leest. Het is zo moeilijk ook, want ik was deze week... sprak ik met Raoul Heertje, de comedian... en die vertelde dat hij een deel in zijn nieuwste show heeft over Chachapiti... en dat hij dan een Excel-sheet uploadt naar Chachapiti... met daarin een aantal woonplaatsen van Nederland... waaraan hij aan Chachapiti vraagt... zet dit op volgorde van provincie. Sorteer dit op volgorde van provincie. En dat doet dat ding dan...
En zegt dan dat hij dat juist gedaan heeft, maar iedereen kan direct zien dat hij heel zelfverzekerd doet over iets wat hij niet weet. Dus hij heeft gewoon een verkeerd document uitgeleverd. En dan vervolgens vraagt hij, hoe zeg ik jou op, ChatGPT? En dan gaat dat ding keurig de stappen noemen die je moet doen om ChatGPT het betaalde abonnement op te zeggen. En ook die stappen om zijn eigen dienst op te zeggen, kloppen niet.
Wat natuurlijk heel grappig is. En vervolgens zegt hij, hoe is het mogelijk dat types zoals jij, dan heeft hij het over mij, dat blijven roepen dat dit allemaal zo veel kan. Want hij kan niet eens uitleggen hoe die zelf werkt. Mag ik reageren namens jou? Of wil jij nog even hoe jij hebt gereageerd reageren? Nee, helemaal niet. Kijk, het riep bij mij een vraag op, maar die zal ik dadelijk aan je voorleggen. Wat wil je zeggen?
dat hij dan aan het einde na twaalf seconden nadenkt... joh, ik weet wel ongeveer welke namen. Ik weet wel ongeveer wat ik moet gaan zoeken. Ja, maar het is intuïtief heel moeilijk om te begrijpen... waarom we wel de hele tijd heel enthousiast kunnen praten... over hoe knap de technologie toch werkt. Dat er Hollywoodfilms geproduceerd kunnen gaan worden... door zo'n systeem aan de hand van videobeelden die steeds echter worden...
Maar dat hij niet de plaatsen van Nederland op volgorde van provincie kan zetten. Dat is heel moeilijk om te begrijpen. Het is ook geen aanval naar de mensen die dit vinden. Nee, maar wat jij nu zegt, dat biedt geen soelaas, zeg maar.
Het is onbruikbaar, dus wat een hype allemaal. Dit maakt het allemaal niet waar. En jij kijkt op een andere manier ernaar en denkt gewoon het ding wat het wel kan is ongelofelijk. En het ding wat nog niet kan is vrij eenvoudig om te fixen. Dus wacht maar.
Waarvan mijn moeder zegt, wat? Ja, en terecht als ze dat zegt. Het lukt me denk ik niet zo goed om het op een juiste manier om een woord te... Ik begrijp je wel, maar het is denk ik, we zijn op dit moment ook nog in een fase waarin deze systemen uitgerold zijn aan alle mensen op aarde.
En stiekem je best wel een soort van zesde zintuig moet ontwikkelen voor wat voor dingen je nu kan voorleggen aan die systemen en wat niet. Hij zei dus ook, ja, ik heb gevraagd naar wat zijn restaurants in de buurt die open zijn. En dan cringe ik al in elkaar omdat ik denk, ja, dat kan je dus niet vragen aan dat ding. Er zit geen tool calling in waardoor hij deze vraag fatsoenlijk kan beantwoorden. Ik stel die vraag niet eens omdat ik weet dat er niks fatsoenlijks uit gaat komen. Ja.
En tegelijkertijd kan ik wel een heel ingewikkeld strategisch vraagstuk voorleggen. En moet ik een avond soort van diep nadenken over wat ik er eigenlijk van vind, waar dat ding mee kwam. En ik denk dus dat, ik zag Naval, een tech, hoe moet je dat nou noemen, iemand die in Silicon Valley hoog aangeschreven staat als soort van denker, die zei iets van wat 10.000 uur was, is nu 10.000 prompt.
Dus de theorie dat je 10.000 uur aan iets moet besteden voordat je er heel goed in bent, of het nou piano spelen is of voetballen, geldt ook een beetje voor AI gebruiken, namelijk je moet het heel veel gebruiken om te begrijpen wat je daarmee kan. En in die rare tussenfase zitten we nu met z'n allen.
Ja, op basis van hype in de media twee kanten op. Ja, Jonasse mensen die gewoon verder een druk bestaan hebben, banen zich daar een plek tussendoor, terwijl ze heen en weer gejonast worden. En dat is gewoon verwarrend voor mensen.
Eigenlijk wel. Ja, dat vind ik toch een spicy ding om mee te eindigen. Straks. Google heeft de beste plaatjesgenerator van dit moment gemaakt. Dus als je altijd al had willen weten hoe je woonkamer eruit zou zien met tijgerprint behang, dan kun je dat nu doen. Of hoe je er advertenties mee maakt. En over advertenties gesproken. Marjan en Lucas praten hierbij over hoe Debt AI gebruikt voor hun klanten.
Sinds iedereen Studio Ghibli plaatjes ging maken in JGPT en de GPU's bij OpenAI begonnen te smelten omdat iedereen daar aan wilde, wil ieder groot AI bedrijf betere plaatjesgeneratie tools maken. En Google introduceerde deze week hun nieuwe Gemini 2.5 Flash Image model. Goed hè?
Beter bekend, want dat is het goede nieuws. Google is marketing onder de knieën aan het krijgen. Ze hebben hem Nanobanana genoemd op de achtergrond. En die naam is veel leuker. En die is inmiddels eigenlijk de naam geworden van dit model. Een plaatjesgeneratie model waarmee je iets kan wat je met ZGPT niet kan. Namelijk bijvoorbeeld een foto van jezelf uploaden. En dan vragen hoe zou ik eruit zien in een bruidspak.
Of hoe ik zou eruit zien met een ander kapsel. En normaal gesproken vervormt die het hele gezicht. Je krijgt dan iemand die op jou lijkt als het ware. Maar Googles nieuwe plaatsmodel heeft best wel stevige karakterconsistentie. Zoals dat dan heet. Waardoor het gezicht ongeveer hetzelfde blijft. En je jezelf in een andere vorm kan zien.
Met iets aangepast. Het model maakte de afgelopen weken al furoren op LM Arena. Een platform waar gebruikers AI-modellen blind testen. En dat was onder een schuilnaam. Nog niet was duidelijk dat Google er dus achter zit. En dat wordt dus nu wel duidelijk dat nanobanana van Google is. Wat kun je er nou mee? Je kunt afbeeldingen editen zoals je vroeger met de hand met Photoshop moest doen. Maar beter.
Dus je kan letterlijk zeggen, zet dit daar of verplaat dit daar naartoe. Gewoon in tekst en zo kun je je plaatje aanpassen. Zo kun je bijvoorbeeld, als je aan het werken bent aan een thumbnail voor een YouTube plaatje, waarbij je zo'n cliché gezicht in beeld hebt van iemand die dan heel erg schrikt, want op een of andere reden is dat de klikbeet of dit soort dingen.