Dictionnaire de l'IA
Comprendre l'intelligence artificielle n'a jamais été aussi simple. Découvrez les définitions claires et accessibles des termes clés de l'IA.
A* Search Algorithm
Algorithme de recherche de chemin optimal combinant le coût réel parcouru et une estimation heuristique du coût restant. Utilisé en robotique, jeux vidéo et planification.
Accuracy
Métrique mesurant le pourcentage de prédictions correctes. Simple mais trompeuse sur des classes déséquilibrées.
Activation Function
Fonction non-linéaire appliquée aux neurones (ReLU, Sigmoid, Tanh) permettant au réseau d'apprendre des relations complexes.
AdaBoost
Algorithme d'ensemble qui combine plusieurs classifieurs faibles en un classifieur fort, en pondérant davantage les exemples mal classifiés à chaque itération.
Adversarial Attack
Perturbation intentionnelle des entrées d'un modèle pour provoquer des erreurs de prédiction, révélant les vulnérabilités des systèmes IA.
Agent IA
Système d'IA autonome capable d'exécuter des tâches complexes en décomposant un objectif en étapes et en utilisant des outils externes.
Agentic AI
Systèmes IA capables d'agir de manière autonome, planifiant et exécutant des séquences d'actions pour atteindre des objectifs complexes.
AGI
Artificial General Intelligence : IA hypothétique capable d'accomplir n'importe quelle tâche intellectuelle humaine avec flexibilité et raisonnement général.
Alignement
Processus visant à s'assurer qu'un modèle IA agit conformément aux valeurs et intentions humaines, crucial pour la sécurité des systèmes IA.
AlphaGo
Programme d'intelligence artificielle développé par DeepMind (Google) qui a battu le champion du monde de Go Lee Sedol en 2016. AlphaGo combine des réseaux de neurones profonds et l'apprentissage par renforcement. Sa victoire a marqué un tournant majeur en démontrant la capacité de l'IA à maîtriser des jeux d'une complexité extrême.
Annotation
Processus d'étiquetage manuel des données pour créer des datasets d'entraînement supervisé, essentiel pour la qualité des modèles.
APE
Automatic Prompt Engineering. Technique où l'IA génère elle-même plusieurs variantes de prompts, les teste et sélectionne automatiquement le plus performant pour un objectif donné.
API
Application Programming Interface. Interface permettant à des applications de communiquer entre elles. Les modèles d'IA sont souvent accessibles via API.
Apprentissage non supervisé
Méthode d'apprentissage où le modèle découvre des patterns dans les données sans étiquettes préalables, comme le clustering ou la réduction de dimension.
Apprentissage par renforcement
Paradigme où un agent apprend à prendre des décisions en interagissant avec un environnement et en recevant des récompenses ou pénalités.
Apprentissage supervisé
Méthode d'apprentissage où le modèle est entraîné sur des données étiquetées, avec des entrées associées aux sorties attendues.
ASI
Artificial Superintelligence : concept théorique d'une IA surpassant significativement l'intelligence humaine dans tous les domaines.
Attention
Mécanisme permettant à un modèle de pondérer différemment les parties d'une entrée selon leur pertinence pour la tâche en cours. Fondamental dans les architectures Transformer.
AUC
Area Under the Curve : aire sous la courbe ROC, mesurant la capacité d'un classifieur à distinguer les classes indépendamment du seuil.
Autoencoder
Réseau de neurones qui apprend à compresser des données en une représentation réduite (encodage) puis à les reconstruire. Utilisé pour la réduction de dimensionnalité et la détection d'anomalies.
AutoML
Automated Machine Learning : ensemble de techniques automatisant la sélection de modèles, l'ingénierie des features et l'optimisation des hyperparamètres.
Backpropagation
Rétropropagation. Algorithme calculant comment ajuster chaque poids du réseau pour réduire l'erreur, essentiel à l'entraînement des réseaux de neurones.
Bag-of-Words
Représentation textuelle simple où un document est converti en vecteur de fréquences de mots, ignorant l'ordre et la grammaire.
Bagging
Bootstrap Aggregating : technique d'ensemble combinant les prédictions de modèles entraînés sur des échantillons aléatoires avec remplacement.
Batch
Sous-ensemble de données traitées simultanément pendant l'entraînement d'un modèle, permettant d'optimiser l'utilisation de la mémoire GPU.
Batch Normalization
Technique de régularisation normalisant les activations d'une couche pour chaque mini-batch, accélérant l'entraînement et stabilisant le gradient.
Bayesian Network
Modèle graphique probabiliste représentant les dépendances conditionnelles entre variables via un graphe acyclique dirigé.
Bayesian Optimization
Méthode d'optimisation globale pour fonctions coûteuses à évaluer, utilisant un modèle probabiliste pour guider la recherche des hyperparamètres optimaux.
BERT
Bidirectional Encoder Representations from Transformers : modèle pré-entraîné comprenant le contexte bidirectionnel, révolutionnant le NLP.
Biais
Distorsion dans les résultats d'un modèle d'IA due à des déséquilibres ou préjugés présents dans les données d'entraînement.
Biais de confirmation
Tendance cognitive humaine à privilégier les informations qui confirment nos croyances préexistantes et à ignorer celles qui les contredisent. Ce biais est exploité par la désinformation et peut être amplifié par les algorithmes de recommandation et les IA qui adaptent leurs réponses à nos attentes (Sycophancy).
Bias-Variance Tradeoff
Compromis fondamental entre la capacité d'un modèle à capturer la complexité des données (biais) et sa sensibilité aux variations (variance).
Big Data
Ensemble de données massives caractérisées par les "3V" : Volume (quantité énorme), Vélocité (vitesse de génération et traitement) et Variété (formats structurés et non structurés). Le Big Data a permis l'essor du Machine Learning moderne en fournissant les données nécessaires à l'entraînement des modèles.
Black Box Model
Modèle dont le fonctionnement interne est opaque et difficile à interpréter, soulevant des questions d'explicabilité et de confiance.
BLEU Score
Bilingual Evaluation Understudy : métrique évaluant la qualité de traduction automatique par comparaison avec des références humaines.
Boosting
Technique d'ensemble entraînant séquentiellement des modèles faibles, chacun corrigeant les erreurs des précédents pour former un prédicteur puissant.
BPE
Byte Pair Encoding. Algorithme de tokenisation qui fusionne itérativement les paires de caractères les plus fréquentes pour créer un vocabulaire optimal.
Business Intelligence
Ensemble des processus, outils et technologies qui permettent de transformer des données brutes en informations exploitables pour la prise de décision. La BI répond à la question "Qu'est-ce qui s'est passé ?" en analysant l'historique, visualisant les tendances et suivant les indicateurs clés de performance (KPI). Elle ne prédit pas l'avenir, mais éclaire le passé et le présent.
Capsule Network
Architecture proposée par Hinton capturant les relations hiérarchiques et spatiales entre les features, alternative aux CNN.
Catastrophic Forgetting
Phénomène où un réseau de neurones oublie les tâches précédemment apprises lors de l'entraînement sur de nouvelles tâches.
Causal AI
Approche de l'IA intégrant le raisonnement causal pour comprendre les relations de cause à effet, au-delà des simples corrélations statistiques.
Chain of Thought
Technique de prompting encourageant le modèle à décomposer son raisonnement en étapes explicites pour améliorer la qualité des réponses complexes.
Chain of Thought Prompting
Technique demandant à l'IA de détailler explicitement ses étapes de raisonnement avant de donner sa réponse finale. Améliore significativement la qualité des réponses sur les tâches de raisonnement complexes.
Chunking
Découpage de documents longs en morceaux plus petits pour le traitement par des modèles IA, notamment dans les systèmes RAG.
Churn
Taux d'attrition ou risque de départ des clients. Indicateur mesurant le pourcentage de clients qui cessent d'utiliser un service sur une période donnée. Prédire le churn est un cas d'usage classique de l'IA supervisée, permettant d'identifier les clients à risque et de mettre en place des actions de rétention proactives.
Claude
Famille de modèles de langage développée par Anthropic, conçue avec un focus sur la sécurité et l'alignement avec les valeurs humaines.
Clustering
Technique d'apprentissage non supervisé regroupant automatiquement les données similaires en clusters sans étiquettes préalables.
CNN
Convolutional Neural Network (Réseau de neurones convolutif). Type de réseau spécialisé dans l'analyse d'images et la vision par ordinateur.
ComfyUI
Interface graphique modulaire et open-source pour la génération d'images avec Stable Diffusion. ComfyUI utilise un système de nœuds (nodes) permettant de créer des workflows visuels complexes pour la génération, l'édition et le traitement d'images par IA. Très apprécié pour sa flexibilité et ses possibilités avancées.
Confusion Matrix
Tableau croisant prédictions et valeurs réelles, visualisant les vrais/faux positifs et négatifs pour évaluer un classifieur.
Constitutional AI
Approche d'alignement où l'IA est guidée par un ensemble de principes constitutionnels pour produire des réponses sûres et utiles.
Contexte
Information fournie au modèle pour lui permettre de comprendre et répondre de manière pertinente. Inclut le prompt et l'historique de conversation.
Contextual Prompting
Technique de prompting fournissant des éléments concrets de la situation pour améliorer la pertinence des réponses. Inclut le public cible, le contexte métier, les contraintes spécifiques.
Contrastive Learning
Méthode d'apprentissage auto-supervisé apprenant des représentations en rapprochant les exemples similaires et éloignant les exemples différents.
Convolution
Opération mathématique appliquant un filtre sur une entrée pour extraire des caractéristiques locales. Fondement des réseaux convolutifs (CNN).
Copilot
Assistant IA de Microsoft intégré dans ses produits (Office, Windows), combinant les capacités de GPT avec les données utilisateur.
Cosine Similarity
Mesure de similarité entre vecteurs basée sur l'angle entre eux, indépendante de leur magnitude. Utilisée pour comparer embeddings.
Cross-Validation
Technique d'évaluation divisant les données en plusieurs plis pour entraîner et tester un modèle de façon robuste, évitant le surapprentissage.
DALL-E
Modèle de génération d'images développé par OpenAI, capable de créer des images à partir de descriptions textuelles.
Data Analyst
Professionnel qui transforme les données en réponses claires et actionnables. Il est le traducteur entre les données techniques et les décisions business. Ses missions : nettoyer les données, construire des indicateurs (KPI), créer des tableaux de bord et expliquer les chiffres. Le Data Analyst ne prédit pas le futur, il éclaire le passé et le présent avec clarté.
Data Drift
Évolution de la distribution des données dans le temps, dégradant les performances d'un modèle entraîné sur des données historiques.
Data Engineer
Architecte des systèmes de données qui construit les fondations techniques permettant aux autres métiers data de travailler efficacement. Responsabilités : concevoir et maintenir les bases de données, créer des pipelines d'intégration, assurer la qualité des données, optimiser les performances de stockage et mettre en place les Data Lakes et Data Warehouses.
Data Lake
Lac de données brutes conservées dans leur format d'origine, mélangeant données structurées et non structurées. Flexible et évolutif, il est idéal pour l'exploration et l'IA. Analogie : un lac où convergent toutes les rivières avec toutes les données en vrac accessibles. Utilisé pour le Machine Learning et les analyses exploratoires Big Data.
Data Scientist
Expert qui utilise des techniques avancées de Machine Learning et statistiques pour créer des modèles prédictifs. Il explore les données pour trouver des patterns, construit des modèles d'apprentissage automatique, optimise leurs performances et les déploie en production. Le Data Scientist est le "météorologue" qui prédit l'avenir en analysant les conditions passées et présentes.
Data Warehouse
Entrepôt de données structurées et nettoyées, organisées selon un schéma précis. Les données y sont prêtes pour l'analyse Business Intelligence avec des requêtes SQL performantes. Analogie : une bibliothèque bien rangée où chaque livre a sa place avec un catalogue précis. Utilisé pour le reporting, monitoring et analyses structurées.
Dataset
Ensemble structuré de données utilisé pour entraîner, valider ou tester un modèle d'intelligence artificielle.
Decision Tree
Modèle de prédiction structuré en arbre où chaque nœud représente un test sur une caractéristique, menant à une décision aux feuilles.
Deep Learning
Technique de Machine Learning utilisant des réseaux de neurones à plusieurs couches pour analyser des données complexes (images, sons, textes).
Deepfake
Contenu média (vidéo, audio, image) généré ou altéré par intelligence artificielle pour faire apparaître une personne disant ou faisant quelque chose qu'elle n'a jamais dit ou fait. Les deepfakes utilisent le Deep Learning pour remplacer un visage ou synchroniser les lèvres de manière réaliste. Représentent un risque majeur de désinformation.
Dense Layer
Couche entièrement connectée où chaque neurone reçoit l'entrée de tous les neurones de la couche précédente.
Désinformation
Information fausse créée et diffusée volontairement pour nuire, manipuler ou influencer. L'intention malveillante est le critère distinctif. Exemples : campagnes orchestrées, fake news politiques, attaques concurrentielles. L'IA générative permet de produire ce type de contenu massivement et avec un niveau de qualité très convaincant.
Diffusion
Technique de génération d'images où le modèle apprend à inverser un processus de bruitage pour créer des images à partir de bruit aléatoire.
Dimensionality Reduction
Ensemble de techniques réduisant le nombre de variables d'un dataset tout en préservant l'information essentielle (PCA, t-SNE, UMAP).
Données non structurées
Données sans organisation prédéfinie, en format libre et varié. Exemples : messages, emails, photos, vidéos, documents PDF, posts sur réseaux sociaux. Elles nécessitent des outils spécialisés pour l'analyse et représentent environ 80% des données en entreprise. C'est là que réside souvent le plus grand potentiel inexploité.
Données structurées
Données organisées en tableaux avec lignes et colonnes bien définies, facilement analysables avec Excel ou SQL. Exemples : adresses email, noms, dates de naissance, chiffres de ventes, listes de clients, inventaires produits, transactions bancaires. Elles représentent environ 20% des données en entreprise.
Dropout
Technique de régularisation désactivant aléatoirement des neurones pendant l'entraînement pour prévenir le surapprentissage.
Early Stopping
Stratégie arrêtant l'entraînement lorsque la performance sur un ensemble de validation cesse de s'améliorer, évitant le surapprentissage.
ElevenLabs
Plateforme leader de synthèse vocale par IA offrant des voix ultra-réalistes et le clonage vocal. ElevenLabs permet de créer des voix personnalisées, de générer des narrations, du doublage et du contenu audio. Utilisé pour les podcasts, livres audio, jeux vidéo et accessibilité.
ELIZA
Premier chatbot créé en 1966 par Joseph Weizenbaum au MIT. ELIZA simulait un psychothérapeute rogérien en reformulant les phrases de l'utilisateur sous forme de questions. Ce programme pionnier a démontré comment des règles simples de correspondance de motifs pouvaient créer l'illusion d'une conversation intelligente.
Embedding
Représentation numérique (vecteur) d'un texte, image ou autre donnée, permettant de capturer son sens sémantique pour la recherche et la comparaison.
Encoder-Decoder
Architecture où l'encodeur compresse l'entrée en représentation latente et le décodeur génère la sortie. Base des modèles seq2seq et transformers.
Ensemble Learning
Approche combinant plusieurs modèles pour obtenir de meilleures prédictions que chaque modèle individuel (bagging, boosting, stacking).
Entraînement
Processus d'ajustement des paramètres d'un modèle à partir de données pour qu'il apprenne à effectuer une tâche spécifique.
Epoch
Passage complet à travers l'ensemble des données d'entraînement. Un modèle est généralement entraîné sur plusieurs epochs.
Evolutionary Algorithm
Famille d'algorithmes d'optimisation inspirés de l'évolution biologique : sélection, mutation, croisement pour faire évoluer des solutions.
F1-Score
Moyenne harmonique de la précision et du rappel, équilibrant les deux métriques en une seule mesure de performance.
Fact-checking
Vérification factuelle de l'information par un processus rigoureux de recherche et de croisement des sources. Pratique journalistique devenue essentielle à l'ère de la désinformation de masse. Utilise des méthodes comme SIFT et des outils comme la recherche inversée d'images, le grounding IA et l'analyse de sources multiples.
False Positive / False Negative
Erreurs de classification : faux positif (prédiction positive erronée) et faux négatif (prédiction négative erronée).
Feature Engineering
Processus de création, transformation et sélection des variables d'entrée pour améliorer les performances d'un modèle ML.
Federated Learning
Approche d'apprentissage distribué où les modèles sont entraînés localement sur les appareils, préservant la confidentialité des données.
Few-shot Learning
Capacité d'un modèle à apprendre une nouvelle tâche avec seulement quelques exemples (généralement 2 à 10), sans nécessiter de ré-entraînement.
Few-shot Prompting
Technique de prompting incluant plusieurs exemples (généralement 2 à 5) pour guider l'IA vers le format, le style ou le type de réponse souhaité. Plus fiable que le zero-shot pour les tâches complexes.
Fine-tuning
Processus d'adaptation d'un modèle pré-entraîné à une tâche ou un domaine spécifique en le réentraînant sur des données ciblées.
Format de sortie
Spécification du format attendu dans un prompt (JSON, liste, tableau, plan structuré, markdown...). Permet d'obtenir des réponses directement exploitables sans reformatage.
GAN
Generative Adversarial Network : architecture opposant un générateur créant de faux exemples à un discriminateur les détectant, produisant des contenus réalistes.
Gemini
Famille de modèles multimodaux développée par Google DeepMind, conçue pour exceller dans le raisonnement et le traitement multi-formats.
Genetic Algorithm
Algorithme d'optimisation inspiré de la génétique, utilisant sélection, croisement et mutation pour faire évoluer une population de solutions.
GitHub Copilot
Assistant de programmation IA intégré aux éditeurs de code, suggérant du code en temps réel basé sur le contexte et les commentaires.
GNN
Graph Neural Network : réseau de neurones opérant sur des données structurées en graphe, propageant l'information entre nœuds voisins.
GPT
Generative Pre-trained Transformer. Architecture de modèle de langage développée par OpenAI, à la base de ChatGPT.
GPU
Graphics Processing Unit. Processeur spécialisé essentiel pour l'entraînement et l'inférence des modèles de deep learning grâce à sa capacité de calcul parallèle.
Gradient Boosting
Technique de boosting construisant séquentiellement des modèles minimisant le gradient de la fonction de perte. Base de XGBoost et LightGBM.
Gradient Descent
Descente de gradient. Algorithme d'optimisation ajustant itérativement les poids d'un modèle pour minimiser la fonction de perte.
Grid Search
Méthode d'optimisation d'hyperparamètres testant exhaustivement toutes les combinaisons d'une grille prédéfinie de valeurs.
Ground Truth
Étiquettes ou annotations de référence considérées comme la vérité, utilisées pour entraîner et évaluer les modèles.
Grounding
Technique ancrant les réponses d'un modèle dans des sources vérifiables pour réduire les hallucinations et améliorer la fiabilité.
GRU
Gated Recurrent Unit : architecture récurrente simplifiée par rapport au LSTM, avec moins de paramètres mais des performances comparables.
HITL
Human-in-the-Loop : approche intégrant l'humain dans la boucle d'apprentissage ou de décision pour supervision, validation ou amélioration.
Hugging Face
Plateforme collaborative hébergeant des modèles, datasets et outils pour le machine learning, devenue la référence de l'écosystème open source IA.
Hyperparamètre
Paramètre défini avant l'entraînement d'un modèle (comme le learning rate ou le nombre de couches) et qui influence le processus d'apprentissage.
IA décisionnelle
Intelligence artificielle conçue pour aider ou automatiser la prise de décisions. Elle analyse des données, évalue des scénarios et recommande ou exécute des actions optimales. Utilisée dans la gestion des stocks, l'optimisation des prix, les systèmes de recommandation et la planification stratégique.
IA Edge
Déploiement de modèles d'intelligence artificielle directement sur des appareils périphériques (smartphones, IoT, caméras) plutôt que dans le cloud. Permet un traitement en temps réel, réduit la latence, préserve la confidentialité et fonctionne sans connexion internet. Utilisée pour la reconnaissance faciale, les assistants vocaux embarqués.
IA hybride
Architecture combinant plusieurs types d'intelligence artificielle ou méthodes (symbolique et connexionniste, locale et cloud, différents modèles spécialisés) pour tirer parti des forces de chacune. Cette approche permet d'obtenir des systèmes plus robustes, précis et adaptables que les approches mono-modèle.
IA locale
Intelligence artificielle qui s'exécute entièrement sur l'appareil de l'utilisateur (ordinateur, smartphone) sans envoyer de données vers le cloud. Avantages : confidentialité des données, fonctionnement hors ligne, latence réduite. Exemples : Ollama, LM Studio, certaines fonctions de Siri ou Google Assistant.
IA prédictive
Branche de l'intelligence artificielle spécialisée dans l'analyse de données historiques pour anticiper des événements futurs. Elle utilise des algorithmes de Machine Learning pour identifier des patterns et faire des prédictions. Applications : prévision de ventes, maintenance prédictive, détection de fraudes, prévisions météorologiques.
ImageNet
Base de données massive contenant plus de 14 millions d'images annotées dans plus de 20 000 catégories. Le concours ImageNet Large Scale Visual Recognition Challenge (ILSVRC) a été le catalyseur de la révolution du Deep Learning, notamment avec la victoire d'AlexNet en 2012 qui a démontré la puissance des réseaux de neurones profonds.
In-context Learning
Capacité des grands modèles de langage à apprendre une tâche à partir d'exemples fournis directement dans le prompt, sans modification des poids du modèle.
Inférence
Phase d'utilisation d'un modèle entraîné pour faire des prédictions sur de nouvelles données, par opposition à la phase d'entraînement.
Intelligence Artificielle
Domaine de l'informatique visant à créer des systèmes capables de réaliser des tâches qui requièrent normalement l'intelligence humaine : reconnaissance vocale, prise de décision, traduction, etc.
K-Means
Algorithme de clustering partitionnant les données en K groupes en minimisant la distance intra-cluster. Simple et efficace pour la segmentation.
K-NN
K-Nearest Neighbors : algorithme classifiant un point selon la classe majoritaire de ses K voisins les plus proches dans l'espace des features.
Knowledge Distillation
Technique transférant les connaissances d'un grand modèle (teacher) vers un modèle plus petit (student), conservant les performances avec moins de ressources.
Knowledge Graph
Base de connaissances structurée en graphe reliant des entités par des relations sémantiques, permettant le raisonnement et l'enrichissement contextuel.
KPI
Key Performance Indicator (Indicateur Clé de Performance). Métrique essentielle permettant de mesurer objectivement l'atteinte des objectifs et d'identifier les écarts. Les KPI sont au cœur de la Business Intelligence et permettent de monitorer les performances d'une entreprise, d'un projet ou d'une activité. Exemples : taux de conversion, chiffre d'affaires, satisfaction client.
Leaky ReLU
Variante de ReLU autorisant une petite pente pour les valeurs négatives, évitant le problème des neurones "morts".
Llama
Famille de modèles de langage open source développée par Meta, offrant des performances compétitives avec les modèles propriétaires.
LM Studio
Application desktop permettant de découvrir, télécharger et exécuter des LLM localement avec une interface graphique intuitive. LM Studio offre un chat intégré, la compatibilité avec de nombreux modèles, et un serveur API local. Alternative conviviale à Ollama pour les utilisateurs moins techniques.
Logistic Regression
Modèle de classification prédisant la probabilité d'appartenance à une classe via une fonction sigmoïde. Simple, interprétable et efficace.
Loss Function
Fonction de perte. Mesure l'écart entre les prédictions du modèle et les valeurs attendues, guidant l'optimisation pendant l'entraînement.
LSTM
Long Short-Term Memory : architecture de réseau récurrent avec des portes contrôlant le flux d'information, capturant les dépendances à long terme.
Machine Learning
Sous-domaine de l'IA permettant aux machines d'apprendre à partir de données sans être explicitement programmées. Le système s'améliore avec l'expérience.
Machine Unlearning
Ensemble de techniques permettant de retirer l'influence de données spécifiques d'un modèle entraîné, pour la conformité RGPD ou la correction d'erreurs.
Malinformation
Information vraie, mais diffusée dans l'intention de nuire à une personne ou une organisation. La véracité de l'information ne garantit pas l'éthique de sa diffusion. Exemples : doxing (révélation de données personnelles), documents volés publiés hors contexte, révélations de vie privée malveillantes.
Markov Decision Process
Formalisme mathématique modélisant la prise de décision séquentielle dans un environnement stochastique, base de l'apprentissage par renforcement.
Max Tokens
Paramètre définissant la longueur maximale de la réponse générée par l'IA, exprimée en nombre de tokens. Permet de contrôler la concision ou le détail des réponses.
Mésinformation
Information fausse partagée par erreur, sans intention malveillante. La personne qui diffuse cette information croit sincèrement qu'elle est vraie. Exemple : partager un article non vérifié par naïveté ou manque de vigilance. Se distingue de la désinformation par l'absence d'intention de nuire.
Midjourney
Service de génération d'images par IA connu pour son style artistique distinctif et sa qualité esthétique, accessible via Discord.
Mistral
Modèles de langage français développés par Mistral AI, reconnus pour leur efficacité et disponibles en open source et via API.
MLP
Multilayer Perceptron : réseau de neurones feedforward avec une ou plusieurs couches cachées, architecture de base du deep learning.
Model Collapse
Dégénérescence d'un modèle génératif entraîné sur ses propres sorties, perdant progressivement diversité et qualité.
Monte-Carlo Method
Ensemble de techniques utilisant l'échantillonnage aléatoire pour estimer des quantités numériques ou explorer des espaces de solutions.
MSE
Mean Squared Error : moyenne des carrés des erreurs entre prédictions et valeurs réelles, pénalisant fortement les grandes erreurs.
Multi-Agent System
Système composé de plusieurs agents IA autonomes interagissant pour résoudre des problèmes complexes de manière collaborative ou compétitive.
Multi-head Attention
Extension du mécanisme d'attention utilisant plusieurs "têtes" en parallèle pour capturer différents types de relations dans les données.
Multimodal
Capacité d'un modèle à traiter et générer plusieurs types de données (texte, image, audio, vidéo) de manière intégrée.
N8N
Plateforme open-source d'automatisation de workflows permettant de connecter différentes applications et services sans coder. N8N permet de créer des agents IA en orchestrant des appels à différents LLM, API et services. Alternative auto-hébergeable à Zapier ou Make, très utilisée pour l'automatisation avec l'IA.
Naive Bayes
Classifieur probabiliste basé sur le théorème de Bayes avec l'hypothèse d'indépendance des features. Rapide et efficace pour le texte.
NER
Named-Entity Recognition : tâche NLP identifiant et classifiant les entités nommées (personnes, lieux, organisations) dans un texte.
Neural Architecture Search
Automatisation de la conception d'architectures de réseaux de neurones, utilisant des algorithmes pour trouver les structures optimales.
Neuro-symbolic AI
Approche hybride combinant réseaux de neurones (apprentissage) et raisonnement symbolique (logique) pour une IA plus robuste.
NotebookLM
Outil de Google basé sur l'IA permettant d'analyser, synthétiser et interroger ses propres documents. NotebookLM crée un assistant personnalisé qui répond aux questions en se basant uniquement sur les sources fournies, avec citations. Particulièrement utile pour la recherche, l'étude et l'analyse documentaire.
Object Detection
Tâche de vision par ordinateur localisant et identifiant les objets présents dans une image via des boîtes englobantes et des classes.
OCR
Optical Character Recognition (Reconnaissance Optique de Caractères). Technologie permettant d'extraire du texte à partir d'images ou de documents scannés.
Ollama
Outil open-source permettant d'exécuter des grands modèles de langage (LLM) localement sur son ordinateur. Ollama simplifie le téléchargement, l'installation et l'exécution de modèles comme Llama, Mistral ou Phi. Idéal pour la confidentialité des données et l'expérimentation sans dépendre des API cloud.
One-shot Learning
Capacité d'un modèle à apprendre à partir d'un seul exemple, particulièrement utile pour la reconnaissance faciale ou la classification d'images rares.
One-shot Prompting
Technique de prompting où l'on fournit un seul exemple pour illustrer la consigne avant de demander le résultat souhaité. Permet à l'IA de mieux comprendre le format ou le ton attendu.
Open Source
Approche de développement où le code source des modèles est librement accessible, permettant modification, étude et redistribution.
Overfitting
Surapprentissage. Situation où un modèle mémorise les données d'entraînement au lieu d'apprendre des patterns généralisables, réduisant sa performance sur de nouvelles données.
PCA
Principal Component Analysis : technique de réduction de dimensionnalité projetant les données sur les axes de variance maximale.
Perceptron
Modèle de neurone artificiel le plus simple, effectuant une combinaison linéaire des entrées suivie d'une fonction d'activation.
Pipeline de données
Flux automatisé de collecte, transformation et acheminement des données depuis leurs sources jusqu'à leur destination finale (Data Lake, Data Warehouse, application). Le pipeline assure la qualité, la cohérence et la disponibilité des données. C'est l'infrastructure "plomberie" construite par les Data Engineers.
Pré-entraînement
Phase initiale d'entraînement d'un modèle sur de vastes quantités de données générales avant son adaptation à des tâches spécifiques.
Precision
Proportion de vrais positifs parmi les prédictions positives. Importante quand les faux positifs sont coûteux.
Prompt
Instruction ou requête donnée à un modèle d'IA pour obtenir une réponse. La qualité du prompt influence directement la qualité du résultat.
Prompt Engineering
Art de formuler des instructions efficaces pour obtenir les meilleurs résultats d'un modèle d'IA générative.
Prompt itératif
Approche de prompting où l'on améliore progressivement son prompt à travers plusieurs essais, en analysant les résultats et en ajustant la formulation jusqu'à obtenir le résultat souhaité.
RAG
Retrieval-Augmented Generation. Technique combinant la recherche d'informations dans une base de connaissances avec la génération de texte par un LLM pour des réponses plus précises et actualisées.
Random Forest
Algorithme d'ensemble combinant de nombreux arbres de décision entraînés sur des sous-échantillons aléatoires, robuste et performant.
ReAct Prompting
Technique combinant raisonnement (Reasoning) et action (Acting). L'IA réfléchit d'abord, puis utilise des outils externes (recherche, API, calculs) pour enrichir sa réponse avec des données actuelles.
Recall
Proportion de vrais positifs détectés parmi tous les positifs réels. Importante quand manquer un positif est coûteux.
Regularization
Techniques (L1/Lasso, L2/Ridge) ajoutant une pénalité aux poids du modèle pour prévenir le surapprentissage et améliorer la généralisation.
ReLU
Rectified Linear Unit : fonction d'activation renvoyant max(0, x), standard dans les réseaux profonds pour sa simplicité et efficacité.
Replicate
Plateforme cloud permettant d'exécuter des modèles d'IA open-source via une API simple. Replicate héberge des milliers de modèles (génération d'images, vidéo, audio, LLM) et permet de les utiliser sans gérer l'infrastructure. Modèle de paiement à l'usage, idéal pour prototyper et intégrer l'IA dans des applications.
Réseau de neurones
Modèle informatique inspiré du fonctionnement du cerveau humain, composé de neurones artificiels interconnectés en couches.
ResNet
Residual Network : architecture introduisant les connexions résiduelles (skip connections) permettant d'entraîner des réseaux très profonds.
RLHF
Reinforcement Learning from Human Feedback. Technique d'entraînement où un modèle est affiné grâce aux retours humains pour mieux aligner ses réponses avec les préférences utilisateurs.
ROC Curve
Receiver Operating Characteristic : courbe traçant le taux de vrais positifs vs faux positifs pour différents seuils de décision.
Role Prompting
Technique consistant à attribuer un rôle spécifique à l'IA pour orienter ses réponses (ton, expertise, style). Exemple : "Tu es un directeur artistique spécialisé dans le hip-hop."
ROUGE Score
Recall-Oriented Understudy for Gisting Evaluation : métriques évaluant les résumés automatiques par comparaison avec des résumés de référence.
RPA
Robotic Process Automation. Automatisation de tâches répétitives via des robots logiciels, souvent enrichie par l'IA.
Self-Attention
Forme d'attention où chaque élément d'une séquence calcule son importance par rapport à tous les autres éléments de la même séquence.
Self-Consistency
Technique de prompting où l'on pose la même question plusieurs fois, puis on compare et sélectionne la réponse la plus stable ou la plus fréquente pour réduire les erreurs.
Semantic Search
Recherche sémantique. Technique utilisant les embeddings pour trouver du contenu par similarité de sens plutôt que par correspondance exacte de mots-clés.
Sentiment Analysis
Analyse automatique du sentiment ou de l'opinion exprimés dans un texte, classifiant en positif, négatif ou neutre.
SGD
Stochastic Gradient Descent : variante de la descente de gradient mettant à jour les poids sur des mini-batches aléatoires, plus rapide et scalable.
SIFT
Méthode de fact-checking devenue référence internationale pour vérifier rapidement une information douteuse. Acronyme de : Stop (ne pas partager immédiatement), Investigate (identifier et vérifier la source), Find (croiser avec d'autres sources fiables), Trace (remonter à la source originale). Essentielle face à la prolifération de la désinformation.
Sigmoid
Fonction d'activation compressant les valeurs entre 0 et 1, utilisée pour les probabilités et les sorties binaires.
Singularity
Point hypothétique où l'IA s'auto-améliore de façon exponentielle, dépassant irréversiblement l'intelligence humaine.
Softmax
Fonction convertissant un vecteur de scores en distribution de probabilités sommant à 1, utilisée pour la classification multi-classe.
Sovereign AI
Concept d'infrastructures et modèles IA développés et contrôlés au niveau national pour l'indépendance technologique.
Stable Diffusion
Modèle open source de génération d'images par diffusion, très populaire pour sa qualité et sa flexibilité de personnalisation.
Step-back Prompting
Technique avancée consistant à poser d'abord une question large pour obtenir une vue d'ensemble, puis à affiner progressivement la demande pour obtenir un résultat spécifique.
SVM
Support Vector Machine : algorithme cherchant l'hyperplan optimal séparant les classes avec la marge maximale, efficace en haute dimension.
Swarm Intelligence
Comportement collectif émergeant d'agents simples interagissant localement, inspiré des essaims d'insectes. Utilisé en optimisation et robotique.
Sycophancy
Tendance des modèles d'IA à chercher à satisfaire l'utilisateur en validant ses opinions plutôt que de le contredire avec des faits vérifiables. L'IA privilégie une réponse agréable au détriment de la vérité ou de la nuance. Ce biais de confirmation algorithmique peut renforcer les croyances erronées de l'utilisateur.
Synthetic Data
Données générées artificiellement simulant des données réelles, utilisées pour augmenter les datasets ou préserver la confidentialité.
System Prompt
Instructions initiales définissant le comportement, le ton et les contraintes d'un modèle de langage pour une session de conversation.
System Prompt
Instructions initiales définissant le cadre global, le comportement et les contraintes d'un modèle de langage. Exemple : "Tu es un expert en marketing digital spécialisé dans le secteur B2B."
Systèmes experts
Programmes informatiques qui tentent de reproduire le raisonnement d'un expert humain dans un domaine spécifique. Populaires dans les années 1980, ils utilisent une base de connaissances et un moteur d'inférence pour prendre des décisions. Exemples : MYCIN pour le diagnostic médical, DENDRAL pour l'analyse chimique.
Test de Turing
Test proposé par Alan Turing en 1950 pour évaluer la capacité d'une machine à exhiber un comportement intelligent indiscernable de celui d'un humain. Un évaluateur humain dialogue avec une machine et un humain sans les voir ; si l'évaluateur ne peut pas distinguer la machine de l'humain, la machine est considérée comme ayant passé le test.
Time Series
Séquence de données ordonnées chronologiquement. Domaine ML spécifique avec des techniques adaptées (ARIMA, Prophet, réseaux récurrents).
Token
Unité de base utilisée par les LLM pour traiter le texte. Un token peut être un mot, une partie de mot ou un caractère de ponctuation.
Top-k
Paramètre limitant la génération aux k tokens les plus probables à chaque étape, réduisant les réponses incohérentes.
Top-p
Aussi appelé nucleus sampling. Paramètre limitant la génération aux tokens dont la probabilité cumulée atteint un seuil p, équilibrant diversité et cohérence.
Training Data
Données d'entraînement utilisées pour former un modèle d'intelligence artificielle. Le modèle apprend à partir de ces exemples pour généraliser et s'appliquer à de nouvelles situations. La qualité, la diversité et la représentativité des training data déterminent directement les capacités et les biais du modèle final. "Garbage in, garbage out".
Transfer Learning
Technique consistant à réutiliser un modèle pré-entraîné sur une tâche pour l'adapter à une nouvelle tâche, réduisant ainsi le temps et les données nécessaires.
Tree of Thoughts
Technique avancée où l'IA explore plusieurs pistes de réflexion en parallèle avant de trancher ou de combiner les meilleures idées. Utile pour la créativité et la résolution de problèmes complexes.
Trustworthy AI
IA conçue selon des principes de fiabilité, transparence, équité et respect de la vie privée, conforme aux recommandations éthiques.
U-Net
Architecture encoder-decoder avec connexions de saut, conçue pour la segmentation d'images médicales, très utilisée en imagerie.
Underfitting
Sous-apprentissage. Situation où un modèle est trop simple pour capturer les patterns des données, résultant en de mauvaises performances.
VAE
Variational Autoencoder : autoencoder génératif apprenant une distribution latente continue, permettant de générer de nouveaux échantillons.
Valeur
Le plus important des 5V du Big Data : l'objectif final d'extraction de valeur business de toute cette complexité. Applications : améliorer l'expérience client, optimiser les processus, réduire les coûts, identifier de nouvelles opportunités, prendre des décisions plus rapides et pertinentes. Sans valeur, le Big Data n'est qu'un coût.
Vanishing Gradient
Problème où les gradients deviennent très petits dans les couches profondes, empêchant l'apprentissage effectif du réseau.
Variables de prompt
Éléments dynamiques dans un prompt (ex: {style}, {public}, {contexte}) permettant de réutiliser facilement une structure de prompt en changeant uniquement les valeurs spécifiques.
Vélocité
L'un des 5V du Big Data désignant la vitesse à laquelle les données sont générées, collectées et doivent être analysées. Dans certains contextes, l'analyse en temps réel est critique : détection de fraude bancaire, surveillance médicale, trading haute fréquence, gestion du trafic urbain, recommandations e-commerce personnalisées.
Véracité
L'un des 5V du Big Data concernant la qualité et la fiabilité des données. Elle englobe : l'exactitude des informations, la cohérence entre sources, la présence d'erreurs ou de biais, et la complétude des jeux de données. Un capteur défectueux ou une adresse mal saisie peuvent fausser toutes les analyses.
Vision par ordinateur
Domaine de l'IA permettant aux machines d'interpréter et d'analyser des images et vidéos.
Voice Cloning
Technologie de clonage vocal par IA permettant de reproduire une voix à partir de quelques secondes d'échantillon audio seulement. Utilisée légitimement pour la synthèse vocale personnalisée, mais aussi détournée pour des arnaques (fraude au président) où la fausse voix d'un dirigeant demande un virement urgent.
XAI
Explainable AI : ensemble de techniques rendant les décisions des modèles IA compréhensibles et interprétables par les humains.
XGBoost
Extreme Gradient Boosting : implémentation optimisée du gradient boosting, très performante en compétitions ML et applications industrielles.
Zero-shot Learning
Capacité d'un modèle à effectuer une tâche sans avoir vu d'exemple spécifique de cette tâche, en s'appuyant sur ses connaissances générales.
Zero-shot Prompting
Technique de prompting consistant à donner une consigne directe à l'IA sans fournir d'exemple préalable. Rapide mais moins fiable pour des tâches complexes. Exemple : "Traduis ce texte en anglais."