Algorithme |
Une série d'instructions étape par étape pour accomplir une tâche spécifique. |
Apprentissage automatique (Machine Learning) |
Une sous-branche de l'IA où les machines apprennent à partir de données pour améliorer leurs performances. |
Apprentissage supervisé |
Une méthode d'apprentissage automatique où un modèle est formé à partir de données étiquetées. |
Apprentissage non supervisé |
Une méthode d'apprentissage automatique où le modèle découvre des structures dans des données non étiquetées. |
Apprentissage par renforcement |
Une méthode d'apprentissage où un agent apprend en interagissant avec son environnement et reçoit des récompenses ou des pénalités. |
Réseaux de neurones |
Modèles computationnels inspirés par le fonctionnement des neurones dans le cerveau humain. |
Réseaux de neurones profonds (Deep Learning) |
Sous-ensemble de l'apprentissage automatique utilisant des réseaux de neurones avec de nombreuses couches. |
Perceptron |
Le type de neurone artificiel le plus simple, souvent utilisé dans les réseaux de neurones. |
TensorFlow et PyTorch |
Bibliothèques populaires pour l'apprentissage profond. |
Traitement du langage naturel (NLP) |
Sous-domaine de l'IA axé sur la compréhension et la génération du langage humain par les machines. |
Reconnaissance d'images |
Capacité d'une machine à identifier et classer les images. |
Algorithmes génétiques |
Algorithmes basés sur les principes de la sélection naturelle pour résoudre des problèmes. |
Système expert |
Programme informatique qui simule le jugement et le comportement d'un expert humain dans un domaine particulier. |
Robotique |
Étude des robots, des machines automatisées capables de réaliser des tâches dans le monde réel. |
Chatbot |
Programme qui simule une conversation humaine. |
Réseau antagoniste génératif (GAN) |
Ensemble de réseaux de neurones utilisé pour générer des données artificielles. |
Surapprentissage (Overfitting) |
Lorsqu'un modèle est trop adapté aux données d'entraînement et perd sa capacité à généraliser à de nouvelles données. |
Régularisation |
Technique pour prévenir le surapprentissage en ajoutant une pénalité à la complexité du modèle. |
API IA |
Interface qui permet à des applications externes d'accéder aux fonctionnalités d'un modèle d'IA. |
Informatique quantique |
Étude de l'ordinateur basé sur les principes de la mécanique quantique, qui pourrait potentiellement révolutionner l'IA. |
Prétraitement des données |
Processus de nettoyage et de transformation des données brutes en un format adapté à l'entraînement des modèles d'IA. |
Inférence |
Processus d'utilisation d'un modèle d'IA formé pour faire des prédictions sur de nouvelles données. |
Vision par ordinateur |
Domaine de l'IA qui forme les machines pour interpréter et comprendre l'information visuelle du monde, comme les images et les vidéos. |
Analyse de sentiments |
Utilisation du traitement du langage naturel pour déterminer l'humeur ou le sentiment d'un texte. |
Régression |
Type de modèle prédictif qui estime la relation entre une variable dépendante et une ou plusieurs variables indépendantes. |
Classification |
Tâche d'assigner une catégorie ou une classe à une entrée donnée à partir d'un ensemble fixe de catégories possibles. |
Optimisation |
Technique visant à trouver le meilleur résultat possible pour un problème donné, souvent utilisée pour ajuster les paramètres d'un modèle d'IA. |
Séquence à séquence |
Modèles qui prennent une séquence en entrée et produisent une autre séquence en sortie, couramment utilisés dans la traduction automatique. |
Bias (biais) |
Erreur systématique introduite par un modèle qui peut conduire à des prédictions inexactes. Le biais peut également faire référence à des préjugés injustes dans les modèles d'IA. |
Variabilité |
Variations dans les prédictions du modèle dues à la petite taille de l'échantillon. |
Auto-encodeurs |
Type de réseau de neurones utilisé pour l'apprentissage non supervisé où l'entrée est reproduite en sortie, tout en capturant des caractéristiques importantes entre les deux. |
Transfert d'apprentissage |
Technique où un modèle développé pour une tâche est réutilisé comme point de départ pour un modèle sur une seconde tâche. |
Réseaux neuronaux récurrents (RNN) |
Réseaux de neurones adaptés pour traiter des séquences d'informations grâce à leur capacité à mémoriser des informations précédentes. |
Attention (mécanisme) |
Mécanisme qui permet aux modèles de se concentrer sur certaines parties d'une séquence lors du traitement de l'information, couramment utilisé dans les modèles de traitement du langage naturel. |
Méta-apprentissage |
Techniques d'apprentissage où le modèle apprend la structure de l'apprentissage lui-même pour améliorer sa capacité à apprendre de nouvelles tâches rapidement. |
Réseaux Neuronaux Convolutifs (CNN) |
Type spécialisé de réseaux de neurones conçu pour traiter des données structurées de manière hiérarchique, souvent utilisé pour les images. |
Machines à vecteurs de support (SVM) |
Modèles d'apprentissage supervisé utilisés pour la classification et la régression. |
One-shot learning |
Technique d'apprentissage où le modèle est capable d'apprendre à partir d'un seul exemple. |
Clusterisation |
Processus d'organisation des données en groupes homogènes basé sur leurs similitudes. |
Arbres de décision |
Outil de prise de décision qui utilise une structure d'arbre et est utilisé pour la classification et la régression. |
Forêts aléatoires |
Algorithme d'apprentissage automatique basé sur l'agrégation de plusieurs arbres de décision pour améliorer la performance et réduire le surapprentissage. |
Gradient Boosting |
Technique d'apprentissage automatique pour les problèmes de régression et de classification, qui construit un modèle de manière itérative en corrigeant les erreurs des modèles précédents. |
K-means |
Algorithme de clusterisation qui partitionne les données en K clusters distincts basé sur la distance. |
Apprentissage fédéré |
Approche d'apprentissage machine où le modèle est formé sur plusieurs appareils ou serveurs décentralisés tout en gardant les données locales. |
Backpropagation |
Méthode utilisée pour entraîner des réseaux de neurones en ajustant les poids en fonction de l'erreur de la prédiction. |
Early stopping |
Technique pour arrêter l'entraînement d'un modèle une fois que la performance cesse de s'améliorer, évitant ainsi le surapprentissage. |
Hyperparamètre |
Paramètres du modèle qui sont définis avant l'entraînement et qui ne sont pas modifiés pendant celui-ci. |
Epoch |
Une passe complète à travers l'ensemble des données d'entraînement lors de la formation d'un modèle. |
Batch |
Sous-ensemble de l'ensemble de données d'entraînement utilisé pour entraîner le modèle à chaque étape d'une epoch. |
Taux d'apprentissage |
Hyperparamètre qui détermine la taille des mises à jour de poids à chaque étape de l'entraînement. |
Validation croisée |
Technique d'évaluation des modèles où les données sont divisées en plusieurs sous-ensembles; le modèle est formé sur certains de ces sous-ensembles et testé sur d'autres. |
Pruning (Élagage) |
Technique utilisée pour réduire la taille d'un arbre de décision en éliminant les branches qui ont peu de pouvoir prédictif. |
Activation Function (Fonction d'activation) |
Fonction utilisée dans les réseaux de neurones pour introduire de la non-linéarité dans le modèle. |
Embeddings |
Représentations denses de données comme des mots, des phrases ou des utilisateurs, dans un espace vectoriel continu. |
Zéro-shot learning |
Technique où un modèle est capable de traiter des tâches pour lesquelles il n'a jamais été formé. |
Anomalie/Détection d'anomalie |
Identifier des modèles anormaux ou suspects dans les données. |
Bagging |
Méthode d'ensemble qui combine les prédictions de plusieurs modèles pour améliorer la robustesse et la précision. |
Interprétabilité des modèles |
Capacité à comprendre et à interpréter les décisions prises par un modèle d'IA. |
Moteur de recommandation |
Système qui prédit et propose les éléments les plus pertinents pour un utilisateur, souvent utilisé dans les services en ligne. |
Agent intelligent |
Entité capable de percevoir son environnement, d'apprendre de lui et d'agir de manière à maximiser ses chances d'atteindre ses objectifs. |
Semi-supervised Learning |
Méthode d'apprentissage où le modèle est formé à la fois sur des données étiquetées et non étiquetées. |
Transfer Learning |
Technique d'apprentissage où un modèle pré-entraîné sur une tâche est utilisé comme point de départ pour une nouvelle tâche similaire. |
Bias-Variance Tradeoff |
Équilibre entre la capacité du modèle à s'adapter parfaitement aux données d'entraînement (bias) et sa capacité à généraliser à de nouvelles données (variance). |
Neural Architecture Search (NAS) |
Processus d'automatisation de la recherche de la meilleure architecture de réseau de neurones pour une tâche spécifique. |
Data Augmentation |
Techniques pour augmenter la quantité de données d'entraînement en modifiant légèrement les entrées existantes sans changer leur signification ou leur label. |
Ensemble Learning |
Techniques d'apprentissage machine qui combinent plusieurs modèles pour obtenir de meilleures performances prédictives que celles obtenues avec un seul modèle. |
Boosting |
Technique d'ensemble qui ajuste la performance des faibles apprenants en mettant l'accent sur les échantillons mal classés dans les étapes précédentes. |
Word Embedding |
Représentation vectorielle de mots qui capturent leur signification, leur relation sémantique et leur contexte. |
Attention Mechanism |
Mécanisme utilisé dans les réseaux de neurones, en particulier pour le traitement du langage naturel, qui permet au modèle de se concentrer sur des parties spécifiques d'une entrée. |
One-hot Encoding |
Technique de représentation des données catégorielles sous forme de vecteurs binaires où chaque label est représenté par un vecteur avec un seul '1' et le reste '0'. |
Dropout |
Technique de régularisation pour les réseaux de neurones où certains neurones sont "éteints" de manière aléatoire pendant l'entraînement pour éviter le surapprentissage. |
Loss Function |
Fonction qui mesure à quel point les prédictions d'un modèle sont éloignées des valeurs réelles. Utilisée lors de l'entraînement pour optimiser le modèle. |
Fine-tuning |
Processus d'ajustement des poids d'un modèle pré-entraîné sur une nouvelle tâche, en utilisant un taux d'apprentissage plus faible. |
Batch Normalization |
Technique utilisée pour normaliser les entrées d'une couche de réseau de neurones, améliorant ainsi la vitesse et la stabilité de l'entraînement. |
Feature Engineering |
Processus de sélection, de transformation ou de création de nouvelles variables (ou caractéristiques) pour améliorer la performance du modèle. |
Generative Models |
Modèles capables de générer de nouvelles données qui ressemblent à la distribution de données d'entraînement. |
Dimensionality Reduction |
Techniques pour réduire le nombre de variables dans les données tout en préservant le maximum d'informations. Exemples courants : PCA, t-SNE. |
Grid Search |
Technique d'optimisation hyperparamétrique qui consiste à rechercher de manière exhaustive dans un ensemble défini de valeurs d'hyperparamètres. |