Glossaire de l'Intelligence Artificielle

Terme Description
Algorithme Une série d'instructions étape par étape pour accomplir une tâche spécifique.
Apprentissage automatique (Machine Learning) Une sous-branche de l'IA où les machines apprennent à partir de données pour améliorer leurs performances.
Apprentissage supervisé Une méthode d'apprentissage automatique où un modèle est formé à partir de données étiquetées.
Apprentissage non supervisé Une méthode d'apprentissage automatique où le modèle découvre des structures dans des données non étiquetées.
Apprentissage par renforcement Une méthode d'apprentissage où un agent apprend en interagissant avec son environnement et reçoit des récompenses ou des pénalités.
Réseaux de neurones Modèles computationnels inspirés par le fonctionnement des neurones dans le cerveau humain.
Réseaux de neurones profonds (Deep Learning) Sous-ensemble de l'apprentissage automatique utilisant des réseaux de neurones avec de nombreuses couches.
Perceptron Le type de neurone artificiel le plus simple, souvent utilisé dans les réseaux de neurones.
TensorFlow et PyTorch Bibliothèques populaires pour l'apprentissage profond.
Traitement du langage naturel (NLP) Sous-domaine de l'IA axé sur la compréhension et la génération du langage humain par les machines.
Reconnaissance d'images Capacité d'une machine à identifier et classer les images.
Algorithmes génétiques Algorithmes basés sur les principes de la sélection naturelle pour résoudre des problèmes.
Système expert Programme informatique qui simule le jugement et le comportement d'un expert humain dans un domaine particulier.
Robotique Étude des robots, des machines automatisées capables de réaliser des tâches dans le monde réel.
Chatbot Programme qui simule une conversation humaine.
Réseau antagoniste génératif (GAN) Ensemble de réseaux de neurones utilisé pour générer des données artificielles.
Surapprentissage (Overfitting) Lorsqu'un modèle est trop adapté aux données d'entraînement et perd sa capacité à généraliser à de nouvelles données.
Régularisation Technique pour prévenir le surapprentissage en ajoutant une pénalité à la complexité du modèle.
API IA Interface qui permet à des applications externes d'accéder aux fonctionnalités d'un modèle d'IA.
Informatique quantique Étude de l'ordinateur basé sur les principes de la mécanique quantique, qui pourrait potentiellement révolutionner l'IA.
Prétraitement des données Processus de nettoyage et de transformation des données brutes en un format adapté à l'entraînement des modèles d'IA.
Inférence Processus d'utilisation d'un modèle d'IA formé pour faire des prédictions sur de nouvelles données.
Vision par ordinateur Domaine de l'IA qui forme les machines pour interpréter et comprendre l'information visuelle du monde, comme les images et les vidéos.
Analyse de sentiments Utilisation du traitement du langage naturel pour déterminer l'humeur ou le sentiment d'un texte.
Régression Type de modèle prédictif qui estime la relation entre une variable dépendante et une ou plusieurs variables indépendantes.
Classification Tâche d'assigner une catégorie ou une classe à une entrée donnée à partir d'un ensemble fixe de catégories possibles.
Optimisation Technique visant à trouver le meilleur résultat possible pour un problème donné, souvent utilisée pour ajuster les paramètres d'un modèle d'IA.
Séquence à séquence Modèles qui prennent une séquence en entrée et produisent une autre séquence en sortie, couramment utilisés dans la traduction automatique.
Bias (biais) Erreur systématique introduite par un modèle qui peut conduire à des prédictions inexactes. Le biais peut également faire référence à des préjugés injustes dans les modèles d'IA.
Variabilité Variations dans les prédictions du modèle dues à la petite taille de l'échantillon.
Auto-encodeurs Type de réseau de neurones utilisé pour l'apprentissage non supervisé où l'entrée est reproduite en sortie, tout en capturant des caractéristiques importantes entre les deux.
Transfert d'apprentissage Technique où un modèle développé pour une tâche est réutilisé comme point de départ pour un modèle sur une seconde tâche.
Réseaux neuronaux récurrents (RNN) Réseaux de neurones adaptés pour traiter des séquences d'informations grâce à leur capacité à mémoriser des informations précédentes.
Attention (mécanisme) Mécanisme qui permet aux modèles de se concentrer sur certaines parties d'une séquence lors du traitement de l'information, couramment utilisé dans les modèles de traitement du langage naturel.
Méta-apprentissage Techniques d'apprentissage où le modèle apprend la structure de l'apprentissage lui-même pour améliorer sa capacité à apprendre de nouvelles tâches rapidement.
Réseaux Neuronaux Convolutifs (CNN) Type spécialisé de réseaux de neurones conçu pour traiter des données structurées de manière hiérarchique, souvent utilisé pour les images.
Machines à vecteurs de support (SVM) Modèles d'apprentissage supervisé utilisés pour la classification et la régression.
One-shot learning Technique d'apprentissage où le modèle est capable d'apprendre à partir d'un seul exemple.
Clusterisation Processus d'organisation des données en groupes homogènes basé sur leurs similitudes.
Arbres de décision Outil de prise de décision qui utilise une structure d'arbre et est utilisé pour la classification et la régression.
Forêts aléatoires Algorithme d'apprentissage automatique basé sur l'agrégation de plusieurs arbres de décision pour améliorer la performance et réduire le surapprentissage.
Gradient Boosting Technique d'apprentissage automatique pour les problèmes de régression et de classification, qui construit un modèle de manière itérative en corrigeant les erreurs des modèles précédents.
K-means Algorithme de clusterisation qui partitionne les données en K clusters distincts basé sur la distance.
Apprentissage fédéré Approche d'apprentissage machine où le modèle est formé sur plusieurs appareils ou serveurs décentralisés tout en gardant les données locales.
Backpropagation Méthode utilisée pour entraîner des réseaux de neurones en ajustant les poids en fonction de l'erreur de la prédiction.
Early stopping Technique pour arrêter l'entraînement d'un modèle une fois que la performance cesse de s'améliorer, évitant ainsi le surapprentissage.
Hyperparamètre Paramètres du modèle qui sont définis avant l'entraînement et qui ne sont pas modifiés pendant celui-ci.
Epoch Une passe complète à travers l'ensemble des données d'entraînement lors de la formation d'un modèle.
Batch Sous-ensemble de l'ensemble de données d'entraînement utilisé pour entraîner le modèle à chaque étape d'une epoch.
Taux d'apprentissage Hyperparamètre qui détermine la taille des mises à jour de poids à chaque étape de l'entraînement.
Validation croisée Technique d'évaluation des modèles où les données sont divisées en plusieurs sous-ensembles; le modèle est formé sur certains de ces sous-ensembles et testé sur d'autres.
Pruning (Élagage) Technique utilisée pour réduire la taille d'un arbre de décision en éliminant les branches qui ont peu de pouvoir prédictif.
Activation Function (Fonction d'activation) Fonction utilisée dans les réseaux de neurones pour introduire de la non-linéarité dans le modèle.
Embeddings Représentations denses de données comme des mots, des phrases ou des utilisateurs, dans un espace vectoriel continu.
Zéro-shot learning Technique où un modèle est capable de traiter des tâches pour lesquelles il n'a jamais été formé.
Anomalie/Détection d'anomalie Identifier des modèles anormaux ou suspects dans les données.
Bagging Méthode d'ensemble qui combine les prédictions de plusieurs modèles pour améliorer la robustesse et la précision.
Interprétabilité des modèles Capacité à comprendre et à interpréter les décisions prises par un modèle d'IA.
Moteur de recommandation Système qui prédit et propose les éléments les plus pertinents pour un utilisateur, souvent utilisé dans les services en ligne.
Agent intelligent Entité capable de percevoir son environnement, d'apprendre de lui et d'agir de manière à maximiser ses chances d'atteindre ses objectifs.
Semi-supervised Learning Méthode d'apprentissage où le modèle est formé à la fois sur des données étiquetées et non étiquetées.
Transfer Learning Technique d'apprentissage où un modèle pré-entraîné sur une tâche est utilisé comme point de départ pour une nouvelle tâche similaire.
Bias-Variance Tradeoff Équilibre entre la capacité du modèle à s'adapter parfaitement aux données d'entraînement (bias) et sa capacité à généraliser à de nouvelles données (variance).
Neural Architecture Search (NAS) Processus d'automatisation de la recherche de la meilleure architecture de réseau de neurones pour une tâche spécifique.
Data Augmentation Techniques pour augmenter la quantité de données d'entraînement en modifiant légèrement les entrées existantes sans changer leur signification ou leur label.
Ensemble Learning Techniques d'apprentissage machine qui combinent plusieurs modèles pour obtenir de meilleures performances prédictives que celles obtenues avec un seul modèle.
Boosting Technique d'ensemble qui ajuste la performance des faibles apprenants en mettant l'accent sur les échantillons mal classés dans les étapes précédentes.
Word Embedding Représentation vectorielle de mots qui capturent leur signification, leur relation sémantique et leur contexte.
Attention Mechanism Mécanisme utilisé dans les réseaux de neurones, en particulier pour le traitement du langage naturel, qui permet au modèle de se concentrer sur des parties spécifiques d'une entrée.
One-hot Encoding Technique de représentation des données catégorielles sous forme de vecteurs binaires où chaque label est représenté par un vecteur avec un seul '1' et le reste '0'.
Dropout Technique de régularisation pour les réseaux de neurones où certains neurones sont "éteints" de manière aléatoire pendant l'entraînement pour éviter le surapprentissage.
Loss Function Fonction qui mesure à quel point les prédictions d'un modèle sont éloignées des valeurs réelles. Utilisée lors de l'entraînement pour optimiser le modèle.
Fine-tuning Processus d'ajustement des poids d'un modèle pré-entraîné sur une nouvelle tâche, en utilisant un taux d'apprentissage plus faible.
Batch Normalization Technique utilisée pour normaliser les entrées d'une couche de réseau de neurones, améliorant ainsi la vitesse et la stabilité de l'entraînement.
Feature Engineering Processus de sélection, de transformation ou de création de nouvelles variables (ou caractéristiques) pour améliorer la performance du modèle.
Generative Models Modèles capables de générer de nouvelles données qui ressemblent à la distribution de données d'entraînement.
Dimensionality Reduction Techniques pour réduire le nombre de variables dans les données tout en préservant le maximum d'informations. Exemples courants : PCA, t-SNE.
Grid Search Technique d'optimisation hyperparamétrique qui consiste à rechercher de manière exhaustive dans un ensemble défini de valeurs d'hyperparamètres.