Data Science

Posté le 29/01/2026 par Aurélien Massiot, Teilo Millet

Et si l'article de blog devenait un dialogue ? Avec les LLM, un texte n'est plus un chemin imposé : c'est une cartouche de connaissances à interroger, synthétiser, transformer en podcast. Le même contenu s'adapte à chaque lecteur. Découvrez ce nouveau paradigme de lecture et d'écriture.

Lire la suite >

Posté le 22/01/2026 par Frédéric Duvivier

Premier d’une série consacrée aux Jumeaux Numériques Systémique (JNS), cet article montre comment l’annotation sémantique des transitions et états d’attente permet la modélisation nécessaire aux Jumeaux Numériques Systémiques dans un format compatible avec la représentation standard industrielle.Les articles suivants feront le lien entre la modél

Lire la suite >

Posté le 27/11/2025 par Vinorth Varatharasan, Simon Calarn

Comment entraîner une IA à détecter des défauts qu'elle ne voit presque jamais ? En industrie, les anomalies graves sont si rares qu'elles privent les modèles de matière d'apprentissage. La donnée synthétique offre une réponse inattendue : générer de faux défauts pour mieux reconnaître les vrais. REX sur la détection de soudures défectueuses.

Lire la suite >

Posté le 24/10/2025 par Teilo Millet

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

Lire la suite >

Posté le 30/09/2025 par Nicolas Cavallo

Comprendre le fonctionnement, les usages et les limites des agents IA pour automatiser des tâches complexes et augmenter la productivité.

Lire la suite >

Posté le 15/09/2025 par Jean-louis Debezia

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Lire la suite >

Posté le 17/04/2025 par Ali El Moussawi, Teilo Millet, Ismael Debbagh, Marc Medlock

Les applications basées sur les LLM deviennent de plus en plus nombreuses, complexes et critiques, il devient indispensable d’adopter une approche rigoureuse pour garantir leur bon fonctionnement et leur amélioration continue. L’observabilité et l’évaluation doivent être repensés pour s'adapter.

Lire la suite >

Posté le 16/04/2025 par Wassim Labdi, Anas El Houdri

Mistral AI dévoile son modèle de chat : rapide, open-source et performant. Découvrez les raisons techniques et stratégiques derrière son succès.

Lire la suite >

Posté le 16/04/2025 par Nicolas Cavallo

L'Évaluation est au coeur du développement de tout projet d’Intelligence artificielle. Tout ce qu'il faut savoir pour mettre en place une évaluation rigoureuse et assurer la mise en production des projets RAG (Retrieval Augmented Generation).

Lire la suite >