Alexander Klöpping
👤 SpeakerAppearances Over Time
Podcast Appearances
Dus stel je voor je bent gewoon aan het werk en je hebt met je collega's afgesproken. Aan het eind van de dag stuur ik iedere dag een update met wat ik die dag gedaan heb in bullets. Gewoon een e-mailtje of aan het eind van de week vind ik veel. Zou het dan kunnen dat die dan al het werk wat je met die AI hebt gedaan...
Dan is er ook nog een droomfunctie die ze autodream noemen. Als je dan stopt met werken, dan ordent Cloud Code alles wat het die dag heeft geleerd, verwijdert alles wat tegenstrijdig is met elkaar en bereidt zich dan voor op de volgende sessie. Autodream, weet je? Ja, autodream. Deze is wel al gevonden voordat de sourcecode werd uitgelekt. Er waren al wat mensen aan het spelen die hem per ongeluk gevonden hadden een aantal weken geleden. Wat je met autodream kan, is eigenlijk...
Dus dit heeft eigenlijk mee te maken. Zijn het emergente dingen? Vinden we die weer terug? Of projecteren we onze menselijke wereld op die? Waarschijnlijk ligt die waarheid ergens in het midden. Maar het is een fascinerend vraagstuk. De code onthulde ook undercover modus. Waarmee Anthropic medewerkers Cloud Code laten bijdragen aan openbare software projecten. Dat kan dus bijvoorbeeld open source software projecten zijn. Waar Cloud Code dan bijdrages aan doet.
Maar opvallend is dat daar staat dat ze niet mogen vermelden, die AI bots worden dus geïnstrueerd door Anthropic om niet te vermelden dat zij een AI zijn. De code is expliciet of de instructie in de code is expliciet, vermeld nooit dat je een AI bent. Dus je moet je voorstellen als je zo'n heartbeatachtig systeem instelt en eigenlijk zegt oké kijk naar heel belangrijk open source, bijvoorbeeld open SSL.
Er zijn nu allemaal features die dus bekend zijn geworden, waarvan eigenlijk Entropic liever had gehad dat die met de tijd gereleased zouden worden. Het verklaart ook de onwaarschijnlijke snelheid die we van het bedrijf hebben meegemaakt de afgelopen maanden, waarin het af en toe leek alsof er werkelijk iedere week een grote nieuwe feature uitkwam. Ze zijn aan het drippen geweest. Ze zijn aan het drippen geweest.
En opeens wordt duidelijk wat er eigenlijk aan de hand was. Namelijk alles was al af. Ze hoefden alleen nog maar de dingetjes aan te zetten. In mijn hoofd was het soort van we hebben iets gemaakt en ondertussen zijn de teams bezig om het volgende ding te maken. Nee, alles was al af. Het stond er allemaal al. Het is een beetje dat Apple de volgende iPhone twaalf maanden van tevoren al af heeft. Dat is ook echt zo. Anders je kan nooit die productielijn...
Dat is misschien mijn naïviteit dan. Als je nu kijkt naar het geheel, want Anthropic heeft dus op grote snelheid de afgelopen maanden features uitgebracht en is dat dus ook duidelijk van plan met al deze dingen waar we het nu over gehad hebben, van een always on modus tot het automatisch dromen en stiekem code commits doen aan open source projecten.
Misschien zegt dat iets over de serieuze consequentie... dat dit lek zomaar zou kunnen hebben voor Anthropic. Want ik zag een voorbeeld van een ontwikkelaar... die liet een AI-systeem de gelekte broncode analyseren. Dus lees het allemaal door, de broncode. Dus dan hebben we het niet nu over de feature flags... waar we het net over hadden, om het even duidelijk te maken. Dit zijn een groot lek... waarbij dus ook broncode openbaar is geworden...
Of is dat hetzelfde? Is dat allemaal één en hetzelfde? Nee, dat is niet één en hetzelfde. Twee leks, twee leaks. Absoluut, ja. En vrij dicht op elkaar. Daardoor is het een beetje verwarrend. Bizar. In ieder geval, dus ook de gelekte broncode van Cloud Code, die heeft één ontwikkelaar geanalyseerd en dan eigenlijk gevraagd aan een AI-model, leg eens even uit wat hier allemaal gebeurt in deze broncode. En dan vervolgens tegen dat AI-model gezegd, bouw het opnieuw.
En dat leverde een werkende versie van Cloud Code op zonder de originele code te kopiëren. En die Python versie van Cloud Code is inmiddels een van de snelst groeiende projecten in de geschiedenis van GitHub met ruim 111.000 sterren en 98.000 kopieën in iets meer dan een dag.
En dat is dus weer tegen het zere been van Anthropic, die inmiddels duizenden verwijderingsverzoeken heeft gestuurd naar mensen die de originele code delen. Dat is opvallend, want jij noemt het agressief, waar komt die agressiviteit vandaan?
Is het omdat het echt mogelijk is nu, de kroonjuwelen liggen die nu op straat en kan iedereen nu zijn eigen Cloud Code bouwen? En gaat dit een soort van enorme concurrentieslag zijn tegen entropie? Wat misschien wel interessant is om te vertellen is, Codex van OpenAI, wat hun antwoord is op Cloud Code, was altijd al open source. Dus dat OpenAI heeft altijd hun harnas gewoon op GitHub gezet.
Eigenlijk hetzelfde heeft gedaan met WordPress. Dus WordPress, groot CMS, eigenlijk gewoon aan een AI vertelt, dit is hoe het werkt. Of hier is de broncode, kijk hoe het werkt. Bouw het na, maar dan helemaal from scratch. En je mag niks van de code hergebruiken. Na twee maanden was er een werkende kopie. Eigenlijk, er is een parallel te trekken tussen deze twee dingen, ironisch genoeg in dit geval, over Cloud Code zelf.
Cloudflare zei, ja, hij is wel open source, maar we zijn het niet eens met de licentie. Ja, maar het is gewoon een soort flex. Het is laten zien, wij kunnen... Maar als jij nu een producent bent van SaaS, van een of ander softwarepakket, dan moet dit best eng zijn.
Sterker nog, professionals kijken je naar en die zeggen echt, wat is dit voor spaghetti? Wat opvallend is, want het is een beetje het hotste product in de hele technische wereld op dit moment. Ja, het is een rommel. Maar als je dus aan de binnenkant kijkt, dan is het een zooi. Dus je trekt die motorkap open en het is één grote spaghetti. Het is daadwerkelijk een grasmaaiermotor. Maar nu ontstaat dus de discussie van, maar wacht even.
En over nieuwe modellen gesproken. Er zitten twee grote nieuwe modellen aan te komen bij de labs. En dit zijn geruchten. Maar er zijn allerlei lekkages bij deze grote AI-labs, waardoor wij toch wel meer weten, denk ik, dan dat zij graag zouden willen dat we weten. Bij Anthropic gaat het om het model Mythos. En bij OpenAI zou het gaan om het model Spud.
En van allebei wordt gezegd dat het een immense stap voorwaarts wordt. Laten we beginnen bij Mythos. We weten dus uit weer een gelekte blogpost echt wat de fuck is er aan de hand bij Anthropic. Want dit is los van de code basis die ze hebben gelegd. Ja, zeker. En als je een van de hoofdontwikkelaars, product owners van Cloud Code, die ook zegt van ja, op dit moment shippen we zo hard. Dit zegt hij niet letterlijk, maar tussen de regels door. Het is zo druk.
Ja, eigenlijk... Goed, je voelt hem aan. Het is te druk in het restaurant. Ze beginnen foutjes te maken. Maar er is dus een blogpost gelekt... dat is een aankondiging van een nieuwe model... wat dus niet de bedoeling was dat we dit al zouden weten... van een opvolger van het huidige Opus. En dat is een model waarvan in die blogpost... die dus gelijk offline is gehaald, maar is gekopieerd door mensen... ver voor zou liggen op andere modellen... en dat dat stevige repercussies zou hebben voor cybersecurity. Dat is waar ze op inzoomen.
Militaire insiders vertelden aan Axios... dat is een Amerikaanse nieuwssite... dat Anthropics AI veel beter is voor oorlogsvoering... dan andere AI's op de markt. Concurrenten zouden er maanden over doen... om in de buurt te komen van Claude. En dat speelt ook een rol in het conflict... dat Anthropics heeft met het Pentagon... want die willen Claude terug...
De federale rechter oordeelde deze week ook nog in het voordeel van Anthropic. Die aanmerking die hij eerder had gekregen... namelijk dat Anthropic een risico voor de hele toeleveringsketen... voor de Amerikaanse overheid zou zijn, die werd geschorst. De rechter concludeerde dat die maatregelen bedoeld lijken... om Anthropic te straffen in plaats van de nationale veiligheid te dienen. Oftewel, dit is Trump die boos doet tegen Anthropic. Ondertussen werkt dus OpenAI aan een nieuw model. Want OpenAI is degene die erin is gevlogen bij Anthropic... om oorlogsvoering te doen.