Thomas Serval
đ€ SpeakerAppearances Over Time
Podcast Appearances
Parce qu'on peut peut-ĂȘtre revenir... Les LLM sont partis d'une logique oĂč ça sortait d'un labo, et ils se sont dit, on va virtualiser l'algorithme qu'on a mis en place avec beaucoup de mĂ©moire.
La virtualisation, c'est de fabriquer un PC qui n'existe pas au niveau technique.
Et donc, en fait, on a conçu des LLM, non pas en se disant, on va améliorer l'efficacité de l'algorithme, on va juste se dire que c'est pas cher de mettre 10 000 ou 100 000...
processeurs les uns à cÎté des autres, qu'ils soient existants ou pas.
Par contre, la consommation de mémoire de tous ces trucs-là , elle est codée trÚs salement.
C'est d'ailleurs pour ça que DeepSeek a réussi à rattraper les autres.
C'est parce qu'en fait, ils ont fait un facteur 2 d'efficacitĂ©, mais d'aprĂšs les propres spĂ©cialistes de Google, mais Anthropic te dira probablement la mĂȘme chose, je ne sais pas si OpenAI a mis ça, et quand j'Ă©tais chez Google, on Ă©tait obsĂ©dĂ©s
Et donc, je pense que dans les gagnants, plus les boĂźtes sont grosses et vieilles, plus elles ont cette expertise, qui d'ailleurs, historiquement, est russe.
Donc, recycler.
Nous, on travaille en ce moment avec des gens qui sont sur les circuits courts.
Si vous avez un truc Ă faire aujourd'hui, c'est recycler.
Il y a plein de cartes SD de 1 giga, etc.
Ăa peut ĂȘtre une maniĂšre de faire des Ă©conomies.
En fait, on a toujours ce biais cognitif de penser que quand on sait parler, on est intelligent.
Et en fait, c'est depuis que les LLM sont sortis,
Les gens se rendent compte que... Avant, ils en étaient les seuls à parler.
Donc, en fait, c'était facile.
Un homme intelligent était un homme qui parlait.
Maintenant, on voit qu'on peut parler et ĂȘtre idiot.
Et donc, quelque part, quand deux idiots se rencontrent et qu'ils savent parler, ça ne fait pas des conversations intelligentes, mais...