Daily Shaarli

All links of one day in a single page.

May 13, 2024

Hello GPT-4o

La grosse annonce d'Open AI c'est leur nouveau modèle multi-modal avec support de l'audio en plus de la vidéo et du texte.

Son temps de réponse en audio est de 320 ms en moyenne, ce qui correspond au temps de latence dans une véritable conversation. (Avant c'était 3 et 6 sec de latence avec GPT3.5 et GPT4)

La grosse nouveauté c'est surtout qu'avant on avait une combinaison de modèle alors que maintenant on a un modèle unique et donc capable de reproduire des émotions, des rires etc dans sa sortie audio.

Pareil pour la génération d'image avec du texte, c'est quasiment parfait à présent avec le modèle unique.

Ils ont aussi fait un gros effort sur le tokenizer pour réduire le nombre de tokens dans beaucoup de langages de pays du sous continent Indien, du Moyen-Orient et d'Asie.

Finalement la dernière nouveauté et celle qui va le plus nous impacter, c'est que la vitesse d'inférence est 2x plus rapide et le prix est 2 fois moins cher ! (et disponible dès maintenant)

Squeezing the Juice: Microsoft’s LLMLingua2 demonstrates a Token-Saving Technique using Task-agnostic Prompt Compression

Microsoft ont continué leurs recherches autour de la compression de prompt avec maintenant une v2 de LLMLingua.

C'est très pratique parce que ça permet de compresser les prompts pour utiliser moins de tokens lors de l'appel au LLM.

Cela fonctionne avec un plus petit modèle comme LlaMa 7B pour identifier et supprimer les tokens non-essentiels dans le prompt.

Pour l'instant, cela n'existe qu'en Python.

Berkeley Function Calling Leaderboard (BFCL)

Ce benchmark est constitué de questions avec des descriptions de fonctions à utiliser récupérer des informations extérieures comme la météo par exemple.

Plusieurs capacités sont évaluées:

  • appels de fonctions Python, Java et Javascript pour résoudre des problèmes
  • utilisation d'API REST depuis une documentation
  • création de requêtes SQL
  • capacité à répondre "je ne sais pas" si aucune des fonctions ne convient

GPT-4 Turbo et Claude 3 sont au coude à coude dans le benchmark mais GPT-4 est 2x moins cher

AI Inference now available in Supabase Edge Functions

Supabase sort une gamme de fonctionnalité pour faire tourner des modèles d'embedding et des LLMs dans leurs Edge Functions.

Les modèles tournent sur le runtime ONNX qui avec Transformer.js est la référence pour faire de l'inférence en Javascript et dans le navigateur (CPU et GPU)

Ils ont choisi Ollama avec un cluster de GPU pour faire tourner les LLMs (Mistral, LlaMa, etc)

En tout cas ça permet de faire très rapidement et de bout en bout des projets avec de la GenAI comme un RAG:

  • Vector database (PgVector)
  • Embedding model
  • Inférence LLM
Anthropic's Haiku Beats GPT-4 Turbo in Tool Use Sometimes

Claude 3 Haiku est meilleur que GPT-4 Turbo sur certains benchmark (BFCL) sur le cas d'usage d'appel de fonctions.

Pour comparer les résultats, ils comparent les AST (Abtract Syntax Tree) avec celui du résultat attendu.