Thomas Serval
👤 SpeakerAppearances Over Time
Podcast Appearances
Il suffit de prompter.
En fait, ce que tu es obligé de faire pour faire ça bien, c'est de fixer à ton LLM une série de règles très strictes pour expliquer comment bien coder.
En fait, ce que l'AI ne sait pas faire.
Et donc, ça veut dire qu'on appelle ça AI on Rails.
C'est qu'en fait, tu fixes un certain nombre de règles.
Par exemple, à chaque fois que tu as le choix entre consommer deux octets ou consommer un octet, tu cherches la solution qui consomme un octet quand tu stockes les trucs.
Et donc, on va appliquer des règles de frugalité.
Et ça existe déjà dans l'embarqué, hein ?
mais ça va maintenant exister quasiment dans toute la chaîne.
Il y a plein de types de mémoires.
les détails techniques, donc il y a des mémoires ultra rapides qui sont les plus demandées, puis il y a des vieilles mémoires qu'on n'utilise plus.
Il est possible qu'on remette en service des choses de mémoire, typiquement la mémoire qu'on a dans les disques durs, ou même les disques durs à l'ancienne avec des plateaux.
Ne jetez pas vos disques durs.
Voilà, on va peut-être les réutiliser.
Ça dépend de la durée de la chose.
Mais c'est clair qu'on va se retrouver dans une économie.
On avait eu une discussion avec le patron de Google Cloud.
Grosso modo, il y a à peu près un facteur 1000 d'optimisation de l'efficacité des algorithmes de LLM aujourd'hui.
Et ça, c'est juste de la qualité de programmation.
Pourquoi ?