Wietse Hage
π€ SpeakerAppearances Over Time
Podcast Appearances
dat O3 Pro... want daar is meer in getraind... dan alleen maar... ja, het mag langer nadenken. Ja, het heeft waarschijnlijk een zwaarder... basismodel. Maar er wordt ook... weer veel beter toolcalling in mee getraind. Research-achtige capaciteiten...
OpenAI leert natuurlijk van het deep research gebruik. Die zien geanimizeerd, ga ik even vanuit, hoe deep research gebruikt wordt. Op een gegeven moment ga je natuurlijk tegen je modellen die je traint zeggen, joh, nu we weten hoe jouw voorganger werd ingezet op research, gaan we die lessen over research bij jou er ook in trainen. Ja.
Dus de lessen van de toepassing van die modellen in toolcalling, websites, browsen, noem het allemaal maar op, worden ook meegetraind. En het lijkt er nu op dat O3 Pro vooral spectaculair is in sommige domeinen, omdat bepaalde veel voorkomende toepassingen van O3 daarvoor, voor Pro zeg maar, of waarschijnlijk O4 Mini, doet er allemaal niet toe, er nu steeds strakker ingetraind worden.
Net als dat de cloud modellen steeds beter worden in programmeren. Want Entropic gewoon ziet waar het voor gebruikt wordt. Die modellen waar jouw verdriet zit. Dat je zegt ik ben mijn schrijfmaatje aan het kwijtraken. Want die wordt nu opgeleid tot programmeur. 3,5 zonnet. Het is over. Het is rip gewoon.
Ga je nu ook merken dat O3 Pro meer en meer aan de hand van statistieken fijn getuned gaat worden op de toepassingen waarop, denk ik, OpenAI ziet dat los van de benchmarks ze toegevoegde waarden kunnen bieden aan hun eindgebruikers. Ja, maar zeg je nou eigenlijk, ze hebben gezien hoe het model gebruikt wordt en feedback daarop verzameld en dat hebben ze opnieuw gebakken met die feedback erbij en daardoor is het beter. Dat is wat je zegt.
Ja, die oude variant gebruiken. Ik denk dat iets wat heel behulpzaam is voor luisteraars... die denk ik dan ouder zijn dan dertig. Dat zijn er vast een hoop. Is die prompt, dus hoe je die modellen instrueert... waar wij een library van hebben gemaakt. Dat doen we niet voor niets. Die prompts zijn eigenlijk... Nu moet je altijd een call to action erbij doen. Sorry.
Eireport.email.promptlibrary. Eireport.email.promptlibrary zeg jij? Ja. Wauw, wat is dat? Dit is een soort native advertising opeens. Sorry, dat kan jij helemaal niet aan. Nee, maar het punt wat ik wil maken is dat...
Vroeger, als jij je DOS-computer startte, dan stond daar een terminal en die vroeg een prompt. Dat heette namelijk de DOS-prompt. Dat heet echt zo. En als je dan daar zei print hallo wereld, dan zei die hallo wereld. Als jij er een floppy in deed vol met tekst, dan kwam daar WordPerfect 5.1 op je scherm. Oftewel, je had een prompt library, namelijk stukken tekst op floppy staan en die deed je erin. Software is uiteindelijk een verzameling van achter elkaar reigende strings, oftewel een prompt.
Natuurlijk is het zo voor de techneuten die luisteren. Een taalmodel is toch geen operating system? Technisch niet, maar voor heel veel eindgebruikers wel. Want waar nu eindgebruikers mee geconfronteerd worden... is een knipperende cursor waar jij eigenlijk nog software moet gaan invoeren. Dan roepen wij iedere week...
Als jij niet doet wat jij wil. Ben je waarschijnlijk niet de juiste prompt aan het gebruiken. We hebben een prompt library gemaakt. Wat eigenlijk een soort klassiek. Zoals vroeger bij computermagazines. Mocht je je eigen software overtypen in je eigen computer. Want er zat geen cd of flopje bij. We hebben een word perfect diskette voor je gemaakt. Ja, zo zijn we. Dat hebben wij nu gedaan. Omdat wat blijkt. Die modellen hebben eigenlijk nog instructies meer nodig. Dan dat ze zelf in zich hebben zitten. Ze zijn vrij rauw. Daar plak je dan prompt libraries overheen. En nu prompts overheen uit libraries.
Of software rappers. Die dit voor jou automatisch doen. Want dat is wat software eigenlijk sowieso doet. Het is eigenlijk bizar dat wij teksten nu aan het maken zijn. En dat mensen die dan moeten gaan zitten copy-pasten. Maar goed, daar zijn we nu. En waar we nu ook zijn. Is dat we aan het praten zijn over reasoning models. Blablabla. High, low, mini, pro, whatever. Ja.
Nu mag het hier wel over gaan. Maar uiteindelijk moet het hier niet over gaan. En dit is ook door OpenAI al aangekondigd. En een hele logische volgende stap. Er moet natuurlijk een router tussen. Er moet een verkeerstoren tussen. Die bepaalt welk model op zijn plek is. Sterker nog. Die meerdere modellen dezelfde vraag tegelijk gaat stellen. Jij krijgt waarschijnlijk een budget met een slider. Dat je zegt hoe zwaar gaan we op je vraag. Of zeg je doe maar auto slider. Whatever. En dat je helemaal niet meer hoeft na te denken. Over al deze...
Ja, zelfs tussen die bedrijven. Dus ik wil niet nadenken of ik OpenAI moet gebruiken of Anthropic of Google. Als je wil weten wat Apple zojuist gelanceerd heeft, dat is dat. Dat is dat ding. Dan ben je toch weer fanboy. Ja, dan zijn we weer rond. Maar wat ik wel gaaf vind, en dan is dit cirkeltje ook rond genoeg voor vandaag.
De advanced voice modes in de verschillende apps, zoals bijvoorbeeld in ChatGPT, opening high app, is eigenlijk een heel dun model. Wat hebben ze daarop gezegd? Dat ding moet snel reageren met utjes, atjes en lachjes. Dus dat vloeiende gesprek, low latency, wat je kunt voeren met advanced voice mode, is ad rem, maar heel dun.
Ik tip ook heel vaak aan mensen, let op wat je daartegen zegt, want daar zit niet het sterkste model achter. Wat je veel beter kunt doen, en dat is dus nu nog een omweg, is het allemaal inspreken in audio, dat allemaal omzetten en dan plakken in een reasoning model. Wat we uiteindelijk gaan krijgen denk ik, is dat jij in een vloeiend gesprek zit met advanced voice mode, met een router erachter die dingetjes afschiet naar een reasoning model. En die op een gegeven moment zegt, hier ga ik even over nadenken. Kom straks bij je terug. Ja, that's it.
28? Dat hangt er maar een jaar aan. Mijn intuΓ―tie op basis van mijn intuΓ―tief koffiedik kijken, is dat te snel gedacht. Maar als er tekenen komen, nieuwe research papers, nieuwe modellen die dat ontkrachten, dan zal je me dat ook hier horen zeggen. Dat we naar de Altman timeline aan het gaan zijn.
Ja, precies. Maar de logica van die stappen van robots die robots bouwen, die volg je wel. Dat heet ook het take-off scenario trouwens. En dat haalt hij, de eerste zin is voor mij take-off. Dus we weten waar hij zit, namelijk. En...
En wat is er nu anders in deze huidige tijd, 2025 zoals wij hier zitten, dat het niet nog een keer gaat gebeuren? Nee, maar dat zegt hij ook niet. Hij zegt gewoon, dit is hoe je het fout kan zien gaan en daar moeten wij waakzaam voor zijn. Dus zijn argument voor alignment, of in ieder geval dat er onderzoek gedaan moet worden naar alignment, is dat we de laatste keer dat we iets hebben gebouwd wat leek op een AI, is het een misaligned dashboard.
luchtig is het verkeerde woord, maar het komt vrij hoopvol over alsof hij een speech staat te geven voor een groep bange mensen en zegt het komt allemaal wel goed. Totdat je dan aan het einde gaat scannen op daadwerkelijke oplossingen die erin aangedragen worden. En dan legt hij eigenlijk de verantwoordelijkheid volledig bij ons als samenleving. Wij zijn mensen. Wij houden van mensen. En de doel
Ik kan niet anders dan toch een beetje cynisch zijn. Ik vind het een minder sterk stuk dan All Watched Over by Machines of Love and Grace van Darius Amadeus. Omdat hij daar meer concrete oplossingen in aanhaalt. Wat ik prettig vind aan dit stuk van Sam Altman is dat het mega veel discussie heeft opgerekt. Mensen gaan Alinea voor Alinea af waarom het niet klopt of waarom het wel klopt en wat er dus...