| Chère lectrice, cher lecteur, Le temps est venu de vous faire entrer dans les coulisses de la rubrique sciences, là où les sujets que vous aimez tant lire (du moins on l'espère) se discutent et prennent vie. Et où parfois on se gratte un peu la tête avant de foncer tête baissée, mais avec rigueur, évidemment. Flash-back au lundi 4 mars. Je reçois ce message d'un collègue: «Hello! De notre côté nous n'avons pas les compétences pour traiter une telle étude mais plusieurs personnes m'ont signalé qu'elle était très importante pour la recherche en matière d'IA, je ne sais pas si ça te parle pour la rubrique Science?» A la lecture du titre, «The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits», autant le dire, ça ne me parle pas du tout. Mais c'était sans compter les ressources de mes éminents collègues. Denis Delbecq nous a donc expliqué comment Microsoft et Apple, notamment, tentent de relever le défi d'outils plus sobres et moins gourmands en mémoire. Afin, entre autres, de pouvoir glisser des IA dans les appareils du quotidien. Petit détail qui ne manque pas de sel: avant de se plonger dans les tréfonds de l'IA, Denis en a interrogé deux, Chat-GPT et Perplexity, pour comprendre la portée de ces recherches. Bonne lecture! | – Sylvie Logean, cheffe de la rubrique sciences | |
No comments:
Post a Comment
🤔