Retour sur la conférence AI Engineer World's Fair à San Francisco

Pierre Vannier

Du 25 au 27 juin, Pierre Vannier et Thomas Meimoun ont participé à la plus grande conférence autour de l'IA : AI Engineer World's Fair à San Francisco avec des sujets comme les agents LLM, le RAG et l'extraction de données.

Cet article est issu de notre article de presse dans le Journal Du Net.

Du 25 au 27 juin, Pierre Vannier et Thomas Meimoun ont participé à la plus grande conférence autour de l'IA : AI Engineer World's Fair à San Francisco avec des sujets comme les agents LLM, le RAG et l'extraction de données.

‍

‍

Du 25 au 27 juin dernier, nous avons participé à la plus grande conférence tech autour de l’IA :  AI Engineer World's Fair à San Francisco. Malgré un grand show à l’américaine, l’effet waouh attendu n’était pas au rendez-vous : sur le plan technique, nous avons vu certaines solutions qui ne répondent pas forcément à un problème évident.

Les best practices sont souvent oubliés et nous avons vu beaucoup d’anti-pattern d’ingénierie logicielle.

Finalement, le point clé à retenir est qu’en France et en Europe, nous n’avons pas à rougir : nous ne sommes vraiment pas en retard par rapport aux Etats-Unis.

Nous vous proposons un retour détaillé de la conférence dans notre podcast IA pas que la Data, et son épisode hors série dédié.

LangChain Ă  toutes les sauces

Parmi les leitmotiv de cette conférence : LangChain. Nous avons entendu parler de LangChain 40 fois par jour, si ce n’est pas plus (bibliothèque permettant de construire des outils autour du cœur des modèles de langage dernière génération comme GPT-4).

Surfer sur l'IA

Tous les acteurs intègrent de l’IA et veulent surfer sur cette énorme vague comme MongoDB, un des sponsors de l’événement, spécialisé en base de données NoSQL. Si bien que les fonctionnalités IA tiennent parfois plus de la verrue ajoutée à la va-vite que de la fonctionnalité pensée et conçue dans les règles de l’art.

Nous avons plutôt vu des présentations d'outils fraîchement développés, sans vraiment de cas d’usage, et souvent avec un prisme très (trop) commercial.

Conférence de Discord

A noter tout de même que Discord a fait une très belle présentation, certainement le seul vrai retour d’expérience de ces 3 jours passés ici à essayer de nous vendre des logiciels. Discord, qui revendique 200 millions d’utilisateurs, nous a notamment expliqué comment il filtrait leur chatbot interne.

Et les bonnes pratiques ?

Un autre point marquant de cette conférence est finalement l’absence des bonnes pratiques de développement. Je n’ai pas vu du bon software engineering à l’AI Engineer World's Fair mais plutôt une frénésie autour de l’IA avec des couches d'outils dont on ne sait pas à quoi ils servent, dans tous les sens.

Nous avons besoin d’une IA simple, facile à maintenir et ne pas écrire des lignes de code inutiles, car le meilleur code à maintenir, c'est le code que l’on n'a pas écrit (retrouvez notre chronique Comment construire une IA frugale dans le JDN).

Je retiens quand mĂŞme 4 grands sujets :

  • Les agents LLM (larges languages models) se modernisent et deviennent de plus en plus puissants (mais toujours en quĂŞte de vrais cas d’usage) et toujours difficilement maintenables.
  • Les supports, les chatbots, les chats GPT-like que je ne dĂ©velopperai pas ici, Ă©taient prĂ©sents.
  • Le RAG Ă©tait omniprĂ©sent et semble devenir une commoditĂ©. Il prend encore plus de profondeur lorsque couplĂ© Ă  des bases de donnĂ©es graphes (comme Neo4j qui semble retrouver un second souffle lors de cette confĂ©rence)
  • L’extraction de donnĂ©es structurĂ©es avec Instructor et Outlines (solution made in France) est une des grandes forces des LLM et on en parle pas assez. Probablement the next big thing.

Les agents LLM

Ce sont des outils puissants qui exploitent les capacités des LLM (larges languages models) pour interagir avec les humains de manière naturelle et productive.

Dans un workflow, un agent est une sorte de cerveau constitué par un LLM. Il va prendre une décision de manière semi-autonome, autonome, peut-être en parallèle avec d'autres LLM, avec une capacité de mémorisation et de prise d'action.

Je trouve cela très séduisant d’un point de vue théorique mais la conférence n’évoque pas les cas d’usage possibles. Les agents posent également des problématiques opérationnelles une fois en production : La maintenance de programmes déterministes, procéduraux est difficile, mais quid du débugage des agents LLM ?

Le RAG et le Graph RAG

Le RAG (Retrieval-Augmented Generation) ou génération augmentée de récupération, est une technique avancée de l’IA pour améliorer la génération de texte. Elle combine un module de récupération d'informations et un modèle de génération de texte. Le RAG fait désormais partie des LLM et permet de gagner du temps et de la productivité. Il réduit le biais probabiliste des LLM pour devenir davantage déterministe, il fait des choix et explicite les choix effectués.

La société Neo4j développe depuis 2000 des systèmes de base de données basés sur les graphes. Elle a présenté le Graph RAG à AI Engineer World's Fair : il s’agit d’une couche sémantique via la base de données graphique, valorisant le côté analytique. Cette couche d'interprétation sous forme de graphique permet de représenter des relations avec des nœuds, des arrêts des nœuds, de relations, d'identité, etc. La présentation était séduisante et nous incite à découvrir davantage leurs outils IA.

L'extraction de données structurées

Désormais tous les RAG mis en place dans les entreprises sont des données non structurées avec des PDF. L’extraction de données non structurées vers des données structurées m’intéresse particulièrement.

Nous avons vu deux présentations d’outils très intéressants pour mettre en forme des données à la sortie des LLM : une présentation de Rémi Louf (expert LLMs & structured generation, co-fondateur de Dottxtai, OutlinesOSS) et une conférence de Jason Liu d’Instructor AI. OutlineOSS se situe davantage dans la récupération et la transformation, le filtrage de certains tokens par rapport à des règles données. Cette captation, récupération et structuration d'informations grâce aux LLM est très largement sous-évalué.

Les replays des conférences seront disponibles prochainement sur la chaine Youtube de la conférence.

‍

Pierre Vannier

PDF et Fondateur de Flint