Wietse Hage
đ€ SpeakerAppearances Over Time
Podcast Appearances
Een hele nieuwe interface die gemaakt is rondom glas. Daar hebben mensen hele sterke meningen over. Maar dat is helemaal gebaseerd op het idee... dat Vision OS, namelijk van de Vision Pro... weten jullie het nog...
de skibril van Apple, dat daar eigenlijk een taal in zit, een visuele taal, die past bij augmentation. Namelijk interfaces die over de wereld heen liggen en daardoor in ieder geval semi-transparant zijn. We hebben nu eigenlijk die taal van VisionOS gekregen op alle andere apparaten van Apple, inclusief de MacBooks, die was ik net nog even vergeten.
Waarbij Apple dus eigenlijk ook nog steeds zegt, even het bruggetje naar meta, dat mixed reality platform van Apple, daar zetten we nog steeds op in. Sterker nog, jouw telefoon gaat er nu uitzien als onderdeel van een mixed reality realiteit, ook al is die telefoon dat nog niet eens. Ja.
Dus ik wil alleen maar even de, want er werden een soort grapjes gemaakt bij de introductie van die bril nu, in ieder geval de voorintroductie van de bril. Van Meta. Van Meta, van hé, zijn ze nou nog steeds geld aan het gooien in die hele mixed reality, augmented reality, VR droom?
Zitten ze nog steeds die brilletjes te bouwen? De metaverse, waar ze hun bedrijf voor hernoemd hebben. Ja, toch? Niet niks. En ik wil toch even gezegd hebben dat Meta niet het enige bedrijf is... die op de lange termijn nog heel erg in die mixed reality... augmentation-droom gelooft. Zie Apple die vol inzet op een interface... die niet bedoeld is voor smartphones, maar voor brillen. Ja, even leek de metaverse te gaan over...
Ja, ik denk ook dat nu in die race Meta het meeste talent en het meeste geld en het meeste tijd heeft zitten in het zorgen dat zij in dat nieuwe groene veld, zeg maar die greenfield, dat ze daar weer lekker iets kunnen. Omdat ze nu op het AI gebied eigenlijk dan weer wat minder kunnen.
Ja, ik ben ook heel benieuwd of Apple nog die move gaat maken om binnen een hele Vision OS visie, strategie, ook die meer augmented, veel meer mixed. Nu hebben ze een draaiknop, die digital crown van je Apple Watch op je skibril en dan draai je en dan kan je de wereld...
weer indraaien, zeg maar. Maar dan kom je dus eigenlijk uit VR de wereld weer in, wat jij net beschreef. Terwijl Meta nu zegt, die wereld is er sowieso. Je hebt een zonnebril op en we leggen daar subtiel wat bovenop. Ja, maar dat is toch bij Vision Pro ook wel. De default is gewoon de echte wereld. En daar worden dingen overheen gelegd. En je kan hooguit de echte wereld wegdraaien in die volgorde.
Ja, maar het ziet er... Ik bedoel, laat ik het dan zo zeggen. Qua hardware, niet uit als een apparaat dat jij in de wereld gaat gebruiken. Nee, in de echte wereld gaat gebruiken. Terwijl met de Ray-Ban visie kan je natuurlijk zeggen, joh, durf je al een zonnebril op? Ja. Buiten, nou dan kan je er ook wel op. Ja, zeker. Ik vind dat qua... Ik denk dat die...
Net als dat de Airpods, zeg maar, het grote succes van Apple... wat eigenlijk ook een soort augmentation device is... die je in je oren stopt. Dat wij makkelijker gewend zijn... om vanuit bestaande formfactors iets meer te durven... dan ik ga in de trein zitten met een Vision Pro. Ja, nee, ik durf wel niet eens met een Vision Pro naar het toilet. In huis. Dat vind ik al heel gek. Het lijkt me ook heel goed dat je dat niet doet. Maar ik loop toch met dat ding op. Ga je hem dan afzetten? Nou ja, goed. Oké, we gaan door.
Het is sowieso wel boeiend dat Entropic zit al wat langer op developers blij maken met Cloud Code onder andere. Maar Cloud Code is een scaffolding, een stuk software om hun basismodellen heen. Namelijk Opus en Sonnet. Dat zijn niet Sonnet Codecs of zo of Sonnet Coding. Het is gewoon het model wat je ook kan gebruiken. Ja, dit is een los model bedoel je.
Dus hier doen ze eigenlijk wat anders. Het is en scaffolding en software en een model. Dat is ook een beetje waar de verwarring over ontstaan is bij de lancering van het geheel. Kijk, uiteindelijk komt het erop neer... Ik heb hier niets van meegekregen. Ja, het is ook een beetje een kleine launch. Omdat we hadden hiervoor al Codex. Dat had verder geen naam. Of Codex 1 was dat volgens mij.
wat toen al... Kijk, als jij modellen hebt waarvan je weet... dit model wordt altijd ingezet in zo'n softwareontwikkelingscontext... Ja, in een app waarin je je programmeert. Ja, en je weet gewoon dit is waar die in ingezet wordt... dan kan je eigenlijk zeggen... joh, we gaan dat model wat minder sterk maken in X en Y... maar vooral heel sterk maken in A en B. Want dit is een model wat... in dit geval is het geen fine-tune... maar in ieder geval specifiek zo samengesteld is... om te zorgen dat hij een goede coding assistant is...
binnen Coding Assistant Software. Uiteindelijk komt het erop neer... dat je als softwareontwikkelaar meer wilt... dan alleen maar bukjes oplossen, regeltjes toevoegen... documentatie automatisch laten schrijven. Je wil aan een agent een taak geven... met liefst meerdere agents tegelijk... die vervolgens bij jou terugkomen na een x-tijd... en zeggen, joh, het is klaar. En ik ben tien keer vastgelopen... en ik ben tien keer de verkeerde kant op gelopen... maar ik heb mezelf hersteld. Ik was er weer.
Als je een model daarop gaat aanpassen... dan is het... blijkbaar kiest Entropic ervoor om te zeggen... de aanpassingen die we daar doen... vinden we niet erg dat die ook doorkomen... in alle andere toepassingen van touwmodellen. Ja, omdat ze één en hetzelfde model aan iedereen geven. Ja, precies. Maar kiest OpenAI ervoor om te zeggen... de aanpassingen die wij moeten doen aan GPT-5... Thinking in dit geval...
om te zorgen dat hij beter een goede rol kan spelen... in een soort ensemble van model plus scaffolding... doen we eigenlijk liever ook nog wat aanpassingen aan het model. Wat voor ons als ontwikkelaar frustrerend is... is dat wij dit model nog niet mogen aanspreken. Dus je hebt nog niet een modelpicker aan de achterkant... waar staat GPT-5 Codex. Hoe kan je het nu wel gebruiken dan?
Nou ja, de benchmark, dat is de SWE, Software Engineering Benchmark uit mijn hoofd, die test dus complexe puzzels, zie je als sudoku puzzels met meerdere dimensies erin. En kijk, als je uiteindelijk gaat optimaliseren voor die benchmark, dan zal je langere taken moeten kunnen doen, die ook
een agent heeft die meerdere paden kan bewandelen... en terug kan lopen als het niet goed gaat. Die zeven uur is wel mensenuur. Dus dan krijg je dat weer. Dus hij kan in een mensen tijd zeven uur lang doorrommelen. Waar een mens zeven uur over zou doen om een taak te opbrengen. Het is altijd verwarrend bij die agents benchmarks vind ik. Maar ik snap hem wel. Want onze tijd is vast en de tijd van die dingen niet. Ja.
Maar waar een mens zeven uur aan zou werken... om een programmeertaak te volbrengen... kan dat ding dat nu doen. Dus als jij een beetje een programmeur... die precies diezelfde benchmark geeft... is hij, zij zeven uur bezig om die op te lossen gemiddeld. En nu kunnen dat soort taken... waar een gemiddeld mens zeven uur over doet... opgelost worden door het model...
Ik wil wel even gezegd hebben dat we die machinetijd niet aanhouden als tijd. Het lijkt een soort van klein detail, maar is eigenlijk best wel bizar.