Daily Shaarli
October 27, 2024
CoALA propose une méthode d'organisation des Assistants basée sur les sciences cognitives et notamment les différents types de mémoire à long terme:
- procédural: instructions générales de fonctionnement (les poids initiaux du LLM et le code métier de l'Assistant)
- sémantique: une base de connaissances
- épisodique: les actions passées
La mémoire à court terme (aussi appelée mémoire de travail) est elle représentée par le contenu du prompt utilisé pour répondre.
Ils décrivent notamment des actions internes qui devraient réaliser le LLM pour intéragir avec sa mémoire:
- retrieval: lire dans la mémoire long terme
- reasoning: mettre à jour la mémoire court terme de travail (le prompt)
- learning: écrire dans la mémoire long terme
On retrouve des idées utilisées par Generative Agents
Anthropic a sorti une mise à jour importante de Claude 3.5 Sonnet et il obtient des résultats impressionnant sur les benchmark !
Il dépasse GPT4-o sur la plupart des benchmarks existants et de loin mais c'est surtout sur la partie code qu'il réalise un exploit car il dépasse tous les autres modèles spécialisés sur le benchmark SWE-Bench avec 49% des tâches de réalisées.
La progression des modèles pour les tâches de programmation est vertigineuse, pour rappel en août le SOTA était Aider avec 19%
Personnellement, j'utilise uniquement Claude 3.5 Sonnet dans Cursor et c'est vrai qu'il y a une différence notable avec GPT-4o.
Un nouveau benchmark qui se concentre sur la résolution de problèmes mathématiques de niveau d'olympiades (compétitions internationales)
Le classement est dominé de très loin par o1 d'OpenAI avec 60% pour o1-mini et 52% pour o1-preview.
Les résultats suivants sont 36% pour Qwen2.5-MATH-72b-instruct (un modèle spécialisé en math donc), GPT-4o est à 30% et Claude 3.5 Sonnet à 26%.
Sans surprise, le modèle o1 avec sa chaine de pensée interne remporte la palme.
C'est assez étrange de voir o1-mini devant o1-preview d'ailleurs.
Une simple application Electron pour essayer Claude 3.5 Sonnet avec ses capacités de manipulation d'interfaces graphiques
L'application prend des screenshots de l'écran afin de les envoyer à Claude et Claude répond avec des commandes pour bouger la souris (en x, y), cliquer ou remplir des champs textes.
C'est très lent (1 minute pour chercher et lancer une vidéo Youtube chez moi) mais ça reste quand même impressionnant de voir son ordinateur manipulé automatiquement à la suite d'une simple instruction.
Microsoft publie un outil + modèle capable de découper un screenshot en zones d'intêret compréhensibles pour un LLM afin de pouvoir intéragir avec des applications.
Ils fournissent également un énorme jeu de données contenant des screenshots annotés avec des bounding boxes autour des éléments donc c'est une porte ouverte pour l'évaluation et l'entrainement d'autres modèles.
C'est dommage de ne pas l'avoir mesuré sur le benchmark de référence pour l'interaction avec un ordinateur (OS World) pour comparer les résultats avec ce que propose Claude par exemple
Un article qui propose d'intégrer des publicités dans les réponses des LLMs.
Par exemple, si vous recherchez un livre de science fiction similaire à un que vous avez aimé, le LLM vous proposera un nouveau livre ainsi qu'un lien vers un site de vente de ligne pour l'acheter.
Le système utiliserait un système type RAG pour intégrer des instructions spécifiques de publicité dans la réponse du LLM.
Autant ce genre de système pourrait apparaitre dans les applications finales comme ChatGPT, autant cela parait difficile de faire utiliser une API incluant de la publicité à un client qui intègre de la GenAI dans son produit.
Je serais assez frileux d'utiliser ce système, même si l'API était gratuite car cela introduit encore plus imprédictibilité des résultats à cause de l'injection d'instructions potentiellement différentes à chaque utilisation.
Pour des cas d'usage très simple cela serait moins problématique mais dans des workflows LLM un peu complexe cela peut avoir des effets très dur à contrôler.
Un autre framework pour faire des Assistant. Celui la est en Typescript vs Swarm de OpenAI en Python.
Ils ont choisi une approche plus classique dans laquelle on définit un "Agent" à qui on donne des outils pour répondre aux demandes.
Il n'y a pas de composition comme dans Swarm et donc pas de moyen de construire des applications agentiques spécialisées.
Comme d'habitude c'est peut-être bien pour expérimenter rapidement quelque chose mais je déconseille fortement de baser une production la dessus.
Vapi propose un système d'Assistant vocaux sur étagère.
L'Assistant peut de lui même transférer les appels vers un humain (fallback par exemple) mais on peut aussi lui fournir des outils personnalisés pour qu'il effectue d'autres actions (par exemple organiser un rendez-vous dans le calendrier)
On peut découper les conversations en blocs pour préciser des workflows de support par exemple.
Tous ce qu'il se passe dans la conversation peut être reçu côté serveur sous la forme d'évènements pour log ou déclencher des actions automatiquement.
Niveau pricing c'est très bien car ils font payer 5 centime la minute pour la voix et pour le reste on peut fournir ses propres clés d'API (OpenAI, Anthropic, etc)
Anthropic propose un environnement permettant à Claude 3.5 Sonnet de manipuler directement la souris et le clavier d'un environnement de bureau.
Ils ont appris à Claude à analyser les images et à compter les pixels entre la position actuelle du curseur et l'endroit ou il devrait se trouver pour accomplir la tâche.
Le modèle obtient 15% sur le benchmark OS World qui mesure les capacités des modèles à réaliser des tâches dans un environnement de bureau.
Le podium est toujours à Agent S avec 20% mais on reste loin de la moyenne d'un utilisateur humain qui est de 77%.
Agent.exe est une application Macos poqui permet de tester ces capacités