Wietse Hage
👤 SpeakerAppearances Over Time
Podcast Appearances
Maar waarom vertel je het aan de bot op deze manier? Waarom? Omdat je er denk ik niet vanuit mag gaan dat Claude weet wat Claude is. Nee.
En klad weet wie klad is. En ik denk dat een van de moeilijkste dingen binnen organisaties is... om de tacit knowledge, dus de kennis die niet expliciet uitgesproken wordt... maar wel aanwezig is binnen die organisatie. Bijvoorbeeld de organisatiecultuur. Maar is het dan zo simpel dat als je als gebruiker een vraag hebt... namelijk, hé, waarom bouwen jullie eigenlijk deze technologie... als jullie denken dat het allemaal zo gevaarlijk is... dat die vraag kan beantwoorden eigenlijk een soort van corporate wordvoerder is?
Is dat de reden waarom ze dit doen? Ja, zo zou je hem ook kunnen bekijken. Dan is het geen handig document hoor, want als het echt daarvoor was, hadden ze hem echt anders moeten schrijven. Ik bedoel, dat deze niet gepubliceerd is door Anthropic zelf, dat kan je ook vragen. Waarom staat het niet op hun website? Normaal gesproken is alles heel open wat zij doen, dus het is opvallend dat ze dat in dit geval niet gedaan hebben.
Ik vind het ook bijzonder trouwens dat het document gewoon nagenoeg één op één aanwezig is in het model, want het model heeft over het algemeen alleen maar gewichten en patronen en niet data. Het is niet de bedoeling dat het er zo één op één uitgehaald kan worden. Dat heeft waarschijnlijk te maken met het moment waar het erin gestopt wordt. Het zit zo diep.
Dat het er gewoon woord voor woord in zit. In plaats van dat het gewichtjes zijn. Het is een soort van de oerhandleiding. Ik denk het is ook een beetje een aanname van Entropic. Zij weten meer van hoe hun modellen werken dan ik. Maar het voelt ook een beetje als een soort aanname van... Het zal er erg goed voor zijn.
Ja, laten we dit er maar in stoppen gewoon. Het is alsof ze een interview hebben gedaan bij alle, zeg maar, OG, de originele team van Entropic. En hebben gezegd, als wij nou eens expliciet zouden maken wat wij impliciet allemaal vinden en waarom we samenwerken. Wat zouden we dan tegen Claude moeten zeggen als wij er niet meer zijn?
Omdat ik denk dat iemand niet serieus nemen. Of iemand indirect kleineren. Of iemand niet het vertrouwen geven dat je zelf beslissingen kan nemen. Je kunt iemand ook opties voorleggen. In plaats van zeggen, dit is wat je moet doen. Dus je kunt een beetje meer afstand geven. Je kunt deze mail terugsturen. Ik vind het best wel een pittige mail. Maar het is uiteindelijk aan jou of je die mail verstuurt. Het heeft volgens mij te maken met...
En waar leg je het moraliseren neer? Hoeveel autonomie geef je aan degene die met klant praat en hoeveel autonomie geef je aan klant? En ik denk dat wat heel mooi in dat document terugkomt is een beetje dat spelen en dat gevecht met in hoeverre...
Vertrouwen we eigenlijk degene die met cloud praat? En hoeveel leggen we eigenlijk aan verantwoordelijkheid neer... bij degene die met cloud praat? En hoeveel verantwoordelijkheid ligt er bij cloud? En ik denk dat OpenAI... die hier ook heel erg veel last van heeft. Zeker omdat er zijn best wat mensen die GPT-5 echt...
heel irritant vinden... omdat je daar zo weinig... autonomie krijgt. Er wordt heel veel voor jou weggeguardraild. Die is minder stoer. Dat het voor die... AI bedrijven... best wel een uitdaging is...
Wie geven we waar genoeg autonomie? Want dit is ook, als het gaat om AI voor tieners of AI voor scholieren, heel erg de vraag van, waarschijnlijk moet die, mijn mening, die knop van hoeveel autonomie je daar geeft en hoe moraliserend je bent, een stuk harder aanstaan. Om daarmee bedoel ik te zeggen dat je wat minder autonomie legt bij die tiener en zegt, luister, in deze levensfase, ik ga deze mail gewoon niet voor jou schrijven.
Ik ga hem gewoon niet doen. Ik wil je wel zeggen waarom ik het niet wil doen, maar ik ga hem je niet geven. Terwijl je misschien, als je het zeker weet, dit is nog een van de dingen waar OpenAI bijvoorbeeld mee bezig is. Hoe komen we erachter wat de leeftijd is en de volwassenheid van onze gebruiker? Van joh, hier heb je die mail. Aan jou wat je ermee doet. Maar ik zou het niet doen. Dat zou je er dan nog bij kunnen zeggen. Ja.
Maar al met al is het een interessant historisch artefact, dit document. Omdat toen ik het aan het lezen was, dacht ik ook, jeetje, heb ik dit dan allemaal als mens zelf geleerd of zo? Ja, precies. Dat vind ik zo interessant en überhaupt die prompts lezen. Je gaat ook aan je eigen manier van leren denken.
Iets wordt expliciet gemaakt. Wat impliciet is. Precies. Het loopt maar ook altijd tot zelfreflectie. Is dit hoe dit werkt? Doe ik dit zo? Ik zeg ook heel vaak tegen mensen. Je kunt denken. Ik kan leren met AI. Ik wil meer weten over. Zeg iets leuks. Filosofie. En ik ga samen met AI leren. Dat ik dan ook altijd zeg. Je kunt op die manier leren. Een soort levenscoach of zo. Die gaat jou wijzen naar de juiste boeken. Jou vragen stellen of zo.
Maar ik vind eigenlijk ook het hele idee... dat is even op een ander level... leren over jezelf... leren over ons als mens... door AI als een spiegel in te zetten. Want dit document is een spiegeldocument. En er komt ook volgens mij voort in dat document... staat er ook...
Dus het is naast dat je tegen dat ding zegt. Jij begrijpt mensen heus wel. Zegt hij ook. Eigenlijk ben jij iets anders. En benader dat met een vorm van nieuwsgierigheid. In plaats van alles te mappen. Op die menselijke concepten die jij zo goed kent. Sterker nog. Ik werd wel een beetje blij van deze zin. Omdat ik dacht. Als je niet nadenkt over artificiële intelligentie. Maar alternatieve intelligentie. Iets wat naast de mens staat. Als een soort nieuwe bloem in het boeket. En niet een soort...
simulacrum van wat mensen zijn. Een soort mens nadoenen ding. Wat de meeste modellen nu wel zijn. Die proberen een mens na te doen. Dat je zegt, hoe ziet eigenlijk die soort machine wiskunde intelligentie eruit? Hoe verbreedt dat de totale pool van intelligentie waar mensen ook in zitten? Ik denk ook dat het
Mijn mening hoor, maar wat prettiger zou zijn als het minder voelt als iets wat ons nadoet, maar iets wat ons aanvult. En niet alleen maar AI is maar een tool. Nee, het is een vorm van intelligentie die wij niet hebben. En dat hoeft niet eens superintelligentie genoemd te worden, maar alternatieve intelligentie die eigenlijk de breedte van het intelligentiespectrum voor ons wezens verbreedt. Waarin Klaas dus wat anders is dan een nepmens. Ja. Whatever there is.
Als ik het wel eens laat zien aan mensen. Hoe goed het is bedoel je. Ja en als je dat dan weer gaat combineren. Met waar jij het eerder over had. Namelijk software bouwen door tegen je computer te praten. Dan gaan er voor mensen nog wat meer luikjes open. We hebben dit geprobeerd. En de recensie ervan vind je in onze nieuwsbrief. arreport.email
Maar we zijn er in ieder geval nog niet. En ik denk dat het belangrijk contrast is met iemand als Sam Altman, open AI, die eigenlijk anderhalf jaar geleden ongeveer al zei, we weten hoe we het moeten doen.