Machine Learning

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

Considérés comme la nouvelle phase de la révolution de l’IA, les agents IA se déploient dans nos entreprises et s'immiscent dans notre quotidien. Mais que recouvre vraiment cette “agentivité” dont tout le monde parle ?

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

L'intelligence Artificielle regroupe un ensemble de techniques sur lesquelles l'industrie peut s'appuyer pour se rapprocher de son optimum d'excellence opérationnelle. De l'IA oui, mais où ? A l'Edge ? Dans le Cloud ?

Depuis ChatGPT, les modèles de langage (LLMs) peinent à se connecter efficacement aux données et aux services. Le Model Context Protocol (MCP), inspiré du LSP, propose un standard ouvert et modulaire pour intégrer simplement APIs et ressources externes, ouvrant ainsi une nouvelle ère d’interopérabilité.

Les applications basées sur les LLM deviennent de plus en plus nombreuses, complexes et critiques, il devient indispensable d’adopter une approche rigoureuse pour garantir leur bon fonctionnement et leur amélioration continue. L’observabilité et l’évaluation doivent être repensés pour s'adapter.

L'Évaluation est au coeur du développement de tout projet d’Intelligence artificielle. Tout ce qu'il faut savoir pour mettre en place une évaluation rigoureuse et assurer la mise en production des projets RAG (Retrieval Augmented Generation).
La Grosse Conf' 2025 - Transformer la gestion du savoir personnel et d’équipe à l’ère des LLMs
Data & AI
Avec l'explosion de l'IA et des LLMs, notre manière de gérer la connaissance, qu'elle soit personnelle ou collective, est en pleine transformation. Lors d'une récente présentation, Matthieu Lagacherie a exploré les enjeux et les solutions possibles pour mieux capter, organiser et exploiter l'information à l'ère de l'IA générative

Advisor, c’est un rôle en transverse qui cherche à concilier les enjeux courts termes, sous la responsabilité des équipes, avec la dimension long terme d'évolutivité et d'exploitabilité des algorithmes d'AI.

Dans cet article nous partageons le talk donné par Philippe Prados à la Grosse Conf 2025, ayant pour sujet LangChain, son histoire et évolution, des bonnes pratiques pour travailler avec le framework, ainsi qu'un exemple de pourquoi il faut en explorer le code source.