Daily Shaarli

All links of one day in a single page.

November 22, 2023

Vaibhavs10/insanely-fast-whisper
thumbnail

Le nouveau modèle Text-to-Speech de OpenAI, Whisper Large v3, est capable de transcrire 2.5h d'audio en moins de 2 minutes

Android in the Wild: A Large-Scale Dataset for Android Device Control

Whoa dans cet article les chercheurs ont réussi à manipuler l'interface d'Android avec un LLM.

C'est dans l'émulateur mais c'est quand même impressionnant, ils sont capable de faire des tâches assez complexes comme vider l'historique de navigation de Chrome ou faire des recherches Google

Recursion of Thought: A Divide-and-Conquer Approach to Multi-Context Reasoning with Language Models

Dans cet article, les auteurs proposent une autre manière de découper une tâche en sous tâche en permettant au LLM de "créer" une sous tâche en écrivant un token spécial.

La sous tâche est ensuite executé par un LLM "enfant" puis le résultat est ré-incorporé dans la tâche principale.

L'article contient de nombreux exemples.

CoT-Igniting-Agent
thumbnail

Toute une liste d'articles sur le Chain Of Thought

Du nouveau dans Workers AI : bonjour Mistral 7B
thumbnail

Mistral 7B est disponible dans les workers de Cloudflare.

C'est une bonne nouvelle car ces worker sont distribués géographiquement et donc on peut espérer une latence d'inférence optimale n'importe ou dans le monde.

An open platform for training, serving, and evaluating large language model for tool learning.
thumbnail

Un modèle entrainé depuis LlaMa 2 qui est spécialisé dans l'utilisation d'outils, notamment d'API tierces.

C'est une alternative Open Source à OpenAI et ses assistants

Skeleton of Thought: large language models can do parallel decoding

Un article sur une méthode de prompt engineering pour réduire la latence d'un LLM en découpant une tâche en sous tâche puis en générant chaque partie indépendamment avant de merge le tout.

L'article est pleins d'exemples concrets en annexes

Igniting Language Intelligence: The Hitchhiker’s Guide From Chain-of-Thought Reasoning to Language Agents

Une étude qui présente de très nombreuses méthodes toutes basées sur la chaîne de pensée, de la plus simple, aux CoT pour le raisonnement, la vérification, les extensions multimodales, les CoT pour les agents, etc.

RLHF: Reinforcement Learning from Human Feedback
thumbnail

Un article qui parle de l'entrainement des LLMs.

Les LLMs sont d'abord entrainé un contenu de "basse qualité" équivalent à ~15 millions de livre.

Ensuite ils sont fine tuné une première fois avec des prompts/réponses de qualité, par exemple pour le dialogue.

La dernière étape est le RLHF, avec des réponses notés par des utilisateurs afin d'améliorer la dernière couche du modèle.

Verify-and-Edit: A Knowledge-Enhanced Chain-of-Thought Framework

Un article sur une méthode permettant d'améliorer la qualité des réponses dans un RAG.

Ils proposent notamment une méthode de prompting pour savoir quand il n'y a pas suffisament d'informations pour répondre:

Determine if there is Observation that SUPPORTS
or REFUTES a Claim, or if there is NOT ENOUGH
INFO.

Claim: The Gadsden flag was named by Christo-
pher Gadsden.

A: First, The Gadsden flag is named after politician
Christopher Gadsden. Second, there is no informa-
tion on who named the Gadsden flag. The answer
is NOT ENOUGH INFO.
Tree of Thoughts: Deliberate Problem Solving with Large Language Models

Un article sur la méthode du Tree of Thoughts pour résoudre des problèmes complexes avec un LLM.

Cet article a le mérite d'être compréhensible et de fournir des exemples concrets