Thomas Serval
đ€ SpeakerAppearances Over Time
Podcast Appearances
Il y a plein de types de mémoires.
les détails techniques, donc il y a des mémoires ultra rapides qui sont les plus demandées, puis il y a des vieilles mémoires qu'on n'utilise plus.
Il est possible qu'on remette en service des choses de mĂ©moire, typiquement la mĂ©moire qu'on a dans les disques durs, ou mĂȘme les disques durs Ă l'ancienne avec des plateaux.
Ne jetez pas vos disques durs.
VoilĂ , on va peut-ĂȘtre les rĂ©utiliser.
Ăa dĂ©pend de la durĂ©e de la chose.
Mais c'est clair qu'on va se retrouver dans une économie.
On avait eu une discussion avec le patron de Google Cloud.
Grosso modo, il y a à peu prÚs un facteur 1000 d'optimisation de l'efficacité des algorithmes de LLM aujourd'hui.
Et ça, c'est juste de la qualité de programmation.
Pourquoi ?
Parce qu'on peut peut-ĂȘtre revenir... Les LLM sont partis d'une logique oĂč ça sortait d'un labo, et ils se sont dit, on va virtualiser l'algorithme qu'on a mis en place avec beaucoup de mĂ©moire.
La virtualisation, c'est de fabriquer un PC qui n'existe pas au niveau technique.
Et donc, en fait, on a conçu des LLM, non pas en se disant, on va améliorer l'efficacité de l'algorithme, on va juste se dire que c'est pas cher de mettre 10 000 ou 100 000...
processeurs les uns à cÎté des autres, qu'ils soient existants ou pas.
Par contre, la consommation de mémoire de tous ces trucs-là , elle est codée trÚs salement.
C'est d'ailleurs pour ça que DeepSeek a réussi à rattraper les autres.
C'est parce qu'en fait, ils ont fait un facteur 2 d'efficacitĂ©, mais d'aprĂšs les propres spĂ©cialistes de Google, mais Anthropic te dira probablement la mĂȘme chose, je ne sais pas si OpenAI a mis ça, et quand j'Ă©tais chez Google, on Ă©tait obsĂ©dĂ©s
Et donc, je pense que dans les gagnants, plus les boĂźtes sont grosses et vieilles, plus elles ont cette expertise, qui d'ailleurs, historiquement, est russe.
Donc, recycler.