Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
Je hebt dus normale modellen, dus 3.5 Sonnet, 4.0, dat is wat je standaard gebruikt of standaard gebruikte in Chagibity en in Cloud. Dat zijn normale modellen waarmee je kan praten als vrienden, die je helpen schrijven, die dagelijkse vragen helpen beantwoorden. En je hebt reasoning modellen, dat zijn gigantische, langzame en dure modellen die kunnen helpen met diep analyse, complexe problemen, programmeren, dat soort dingen. Dat zijn twee modellen, dat zijn de hoofdcategorieën.
waarvan je meestal liever duisteraar de normale gebruikt... als je niet in je instellingen zit te klooien. En daarbovenop heb je een knopje, je mag langer nadenken... oftewel het gaat langer duren dan als je zo'n reasoning model gebruikt. En ja, dat is het eigenlijk toch? En er gebeuren eigenlijk twee dingen tegelijk... want je begon ook met 80% goedkoper net. Er gebeuren nu twee dingen tegelijk...
Die is nu ineens de prijs van 4.0. Nou, dat is dus, ik denk waarom jij die even aanhaalt, stiekem best wel een groot ding. Want dat zou de, en dat gaat, de eindgebruiker ervaring van heel veel mensen in AI gedreven software aanzienlijk veranderen. Ja, bijvoorbeeld met programmeren lagen die limits heel laag. Dus als je dan aan het vibe coden was, dan werd je al heel snel, kwam je tegen limieten aan. En het is voor die bedrijven, dus Cursor, Lavebol, wat je dan gebruikt, nu makkelijker geworden om het hele goede O3 model voor heel veel dingen te gebruiken.
Oké, want je hebt het nu over O3 Pro. Wat is de deal met O3 Pro? Behalve dat het langer mag nadenken. En dat dus de co-founders van Raindrop, deze start-up, zeggen we hebben geen McKinsey meer nodig. Kijk, jij en ik zitten in een vreemde tijd. Ja, ik ga heel even uitzoomen. Zoom jij even uit.
Zit je in drie? Ja, ik merk dus dat ik mezelf hier wel echt op moet controleren. Dat ik niet te veel naar drie ga. Want dat is niet goed. Die Apple paper lezen, dat helpt. Ja, precies. Maar ik merk ook... en ik vind het überhaupt over journalistiek op dit moment... dat iedereen zich aan het ingraven is. Dus dat iedereen is posities aan het innemen... en is die posities aan het verdedigen. En ik vind dat eigenlijk heel irritant. En ik merk dat ik dat ook zelf aan het doen ben. Dat ik zo de neiging heb om mensen wakker te willen schudden... voor de mogelijkheid dat...
dat ik minder nieuwsgierig word naar de andere kant van het verhaal. En dat is niet goed. En ik denk dat heel veel journalisten die over AI schrijven dit hebben... en dat is niet vrij. Er is een soort nieuwsgierigheid die eraan verloren. Maar dat is ook omdat het voor iedereen op een of andere manier emotioneel is. Of dat nou gaat dat je vindt dat iedereen het aan het overdrijven is... en dat het veel te grote hype is en dat die bubbel moet leeglopen. Of dat je denkt deze bubbel is lang niet groot genoeg... want alles gaat veranderen. Haar je fucking bek. Wat ben je aan het doen?
Ja, precies. Je kan heel laag scoren op een benchmark. Maar als er dan een rapport uitkomt waarvan je denkt... Oh mijn god, al deze dingen kloppen. Zo had ik nog niet eerder naar me gekeken. Ik ga dit direct gebruiken. Dan is het alsnog waardevol. Ook al scoort die laag op een of andere kwalitatieve benchmark. Als jij een toepassing hebt en die toepassing kon niet en nu wel... dan boeit het jou natuurlijk niet echt wat die benchmark zegt. Want als jij kan beoordelen of wat je ziet ook beter klopt dan bij deze jongens. Dus? Dus is het nu zo...
Ja, en dat is blijkbaar genoeg om zoiets groots te doen. Wat zij ook zeggen is... het is heel belangrijk dat je meer dan bij die gewone modellen... dat je heel veel context meegeeft. Dus dat... Ik las hier een ding van een reviewer... die eerst best wel een negatieve indruk had... over het verschil tussen het pro-model en het gewone model. Totdat hij besefte dat hij het verkeerd gebruikte. Dat je dus niet moet chatten... maar dat je echt rapporten moet laten genereren door dat ding. Geef het context, geef het een doel en laat het dan los...
En de slimheid van het ding moet je dan dus gebruiken. Dus dat hij heel complex denkt. Waar je net van zei, op een multiple choice toets is dat niet altijd wat je wil. Maar soms wil je dat wel, dat het ding heel ingewikkeld aan het denken is. Met heel veel context. En dan blaas dus een heel ingewikkeld probleem kan je wegblazen. Terwijl een heel simpel probleem...
heel teleurgesteld bent over waar het ding mee komt. En daarom is dit een goede manier om dat ding te gebruiken. Namelijk alle context wat je ooit in je bedrijf hebt gedaan geven. Dan krijg je een veel waardevoller resultaat dan met oudere modellen of met minder context. Dus context is heel belangrijk hierin. Dus het is het veranderen hoe je reasoning modellen gebruikt. Ik denk dat veel mensen niet een verschil maken met wanneer ze reasoning modellen gebruiken en wanneer ze
Jij bent het einde van deze aflevering aankondigen, Wietse. Maar we missen nog één groot ding. En dat is dat snoepje wat ik heb bewaard tot het einde. Dan heb ik een nieuw Sam Open essay. Het is een soort inverted paper van Apple.
Ja, dit is de andere kant van het spectrum. Namelijk niet, jullie denken allemaal dat het werkt, maar het werkt helemaal niet. Maar dit is, jullie denken allemaal dat je er nog niet bent, dat met superintelligence, maar we zijn er al. Dat is ook weer, dit is Sam Altman, de PR-man hoor. Ik raad het van harte aan om te lezen, want het is weer een hallucinerend stuk van de baas van het belangrijkste AI-bedrijf ter wereld, zou je kunnen zeggen.
Hij is altijd heel erg open en hij heeft een gouden pennetje. Mag je toch wel zeggen of je het er mee eens bent, het is een ander verhaal. Maar toch, even, het stuk begint zo. We are past the event horizon. Met event bedoelt hij dan, neem ik aan, superintelligence. The take-off has started. Of in ieder geval onderweg dan naar superintelligence. Humanity is close to building digital superintelligence. Oké, ik had gewoon zin om het af te lezen.
Over AGI zegt hij, het is niet een soort lichtknop die opeens omgaat. Dus hij is eigenlijk aan het reageren op alle discussie die er nu boven de markt zweeft. Onder andere over AGI, waar hij zelf natuurlijk een belangrijke aanjager van is. Het is niet een lichtknop die opeens aan of uit gaat. Het zal geleidelijk gaan. Sterker nog, het is al begonnen. Hij zegt, think back to 2020.
And what it would have sounded like to have something close to AGI by 2025 versus what the last five years have actually been like. Ik vind dat een fair punt om te maken. Als je in 2020 een voorspelling had moeten doen over wat computers allemaal zouden kunnen tegen de tijd nu...
dan was dit een bizarre voorspelling geweest. Ik vind het een belangrijk ding om te constateren. Ook voor die groep mensen waar jij dat spectrum van tekent... van één naar helemaal geradicaliseerd. Als deze trend zich doorzet... Ja, maar goed, zelfs als zet de trend niet door... dan is de afgelopen vijf jaar absoluut crazy. Hij wil eigenlijk zeggen, ik zei dit vijf jaar geleden al. Toen zei hij dat ik gek was. Nee, maar ik bedoel, fine.
Maar ik bedoel, eerder behaalde resultaten bieden geen garantie voor de toekomst, moet toch even gezegd worden. Maar ik heb je punt, ik snap wat je zegt. En, je moet het hem nageven, hij doet allemaal concrete verspellingen, verifiërbare verspellingen over hoe het gaat zijn allemaal. En dan zegt hij dus bijvoorbeeld, we gaan in allerlei zelfversterkende loops terechtkomen. De eerste miljoen humanoids moeten we nog zelf maken, met we bedoelt die mensen. Maar daarna gaan humanoids andere humanoids bouwen.
En daarna, want daar heb je natuurlijk allemaal datacenters voor nodig, die dan weer de humanoids van compute gaan voorzien. Of waardoor die modellen weer beter gemaakt gaan worden. Daarna worden die datacenters gebouwd door humanoids.
Ja, dus dit is... Ik kan dit helemaal volgen. Ik kan dit helemaal volgen. Dus hij zegt, en dat is alleen al waard om het stuk te lezen, hij doet gewoon voorspellingen en die komen gewoon met een datum erbij. En die komen uit of niet. Dus dat is toch interessant. We gaan hem er ook aan houden. We gaan hem er zeker aan houden. En ik denk dat, ik bedoel, een van de belangrijkste nuances die ik heb op zijn stuk, is dat er getallen instaan als 26, 27...
Dit is echt een belangrijke. Sam Altman, dat zegt hij in ieder interview, gelooft dat er geen nieuwe uitvindingen meer gedaan zijn. Alleen maar tijd, geld, that's it. Hij zegt een aantal dingen, want ik ga het stuk voor je samenvatten. Hij zegt over risico's. Hij suggereert eigenlijk dat de race al gelopen is. Dus dat de vraag of we superintelligentie moeten ontwikkelen, dat die vraag zinloos is, omdat het er al is.