Vocabulaire de l'Intelligence Artificielle
Glossaire complet avec 50+ termes IA expliques simplement. De A comme Agent IA à T comme Transformer.
L'intelligence artificielle utilise un vocabulaire technique qui peut sembler complexe. Ce glossaire vous aide à comprendre les termes essentiels utilises dans le domaine de l'IA, du machine learning et du deep learning. Que vous soyez débutant ou professionnel, ces definitions vous permettront de mieux apprehender les concepts cles.
Plus qu'un organisme de formation,
un mouvement
Ambassadeur gouvernemental, organisateur du 1er hackathon agents IA de France, partenaire des écoles et des institutions.
A
Agent IA
Système d'intelligence artificielle capable d'agir de maniere autonome pour atteindre des objectifs. Un agent IA peut percevoir son environnement, prendre des decisions et executer des actions sans intervention humaine constante. Exemples : assistants virtuels, robots autonomes, systèmes de trading automatise.
Algorithme
Suite d'instructions definies permettant de resoudre un problème ou d'accomplir une tache. En IA, les algorithmes sont utilises pour entrainer des modèles, faire des predictions et prendre des decisions automatisees.
Apprentissage automatique (Machine Learning)
Branche de l'IA ou les systèmes apprennent à partir de donnees sans etre explicitement programmes. Le machine learning permet aux ordinateurs d'identifier des patterns et de faire des predictions basees sur l'expérience. C'est la technologie derriere les recommandations Netflix, la detection de fraude et la reconnaissance vocale.
Apprentissage profond (Deep Learning)
Sous-domaine du machine learning utilisant des réseaux de neurones artificiels à plusieurs couches. Le deep learning excelle dans la reconnaissance d'images, le traitement du langage naturel et la generation de contenu. GPT, DALL-E et les voitures autonomes utilisent le deep learning.
Apprentissage supervise
Méthode d'entrainement ou le modèle apprend à partir d'exemples etiquetes. On fournit des donnees d'entree avec les réponses attendues, et le modèle apprend à reproduire ces associations. Utilise pour la classification d'emails (spam/non-spam) ou la prediction de prix.
Apprentissage non supervise
Méthode ou le modèle trouve des structures cachees dans des donnees non etiquetees. Le système identifie lui-meme des patterns sans qu'on lui dise quoi chercher. Utilise pour la segmentation de clients ou la detection d'anomalies.
API (Application Programming Interface)
Interface permettant à des applications de communiquer entre elles. Les API d'IA (OpenAI, Anthropic, Google) permettent d'intégrer des capacités d'intelligence artificielle dans vos propres applications sans avoir à créer les modèles vous-meme.
B
Biais algorithmique
Erreur systematique dans un système d'IA qui produit des résultats injustes ou discriminatoires. Les biais proviennent souvent des donnees d'entrainement qui refletent des prejuges humains. Un enjeu ethique majeur dans le deploiement de l'IA.
Big Data
Ensembles de donnees massifs caracterises par leur volume, velocite et variete. Le Big Data est essentiel pour entrainer les modèles d'IA modernes qui necessitent des millions voire des milliards d'exemples pour atteindre de bonnes performances.
C
ChatGPT
Chatbot developpe par OpenAI base sur le modèle GPT. ChatGPT peut converser, rediger du contenu, coder et répondre à des questions complexes. C'est l'application d'IA grand public la plus populaire avec plus de 100 millions d'utilisateurs.
Claude
Assistant IA developpe par Anthropic, concu pour etre utile, inoffensif et honnete. Claude excelle dans l'analyse de documents longs, le raisonnement et les tâches de codage. Alternative populaire à ChatGPT.
Computer Vision
Domaine de l'IA permettant aux machines d'interpreter et comprendre le contenu visuel (images, videos). Utilise pour la reconnaissance faciale, les voitures autonomes, le contrôle qualité industriel et l'imagerie medicale.
Contexte (Context Window)
Quantite d'information qu'un modèle de langage peut traiter en une seule fois. Mesuree en tokens, la fenetre de contexte determine combien de texte le modèle peut "voir" pour generer sa réponse. GPT-4 à une fenetre de 128K tokens, Claude 200K tokens.
D
Data Science
Discipline combinant statistiques, programmation et expertise métier pour extraire des insights des donnees. Les data scientists utilisent le machine learning pour créer des modèles predictifs et aider à la prise de decision.
Dataset
Ensemble structure de donnees utilise pour entrainer ou évaluer un modèle d'IA. La qualité et la diversite du dataset determinent en grande partie les performances du modèle final.
Diffusion (Modèle de)
Technique de generation d'images ou le modèle apprend à transformer du bruit aleatoire en images coherentes. Stable Diffusion, DALL-E et Midjourney utilisent cette approche pour créer des images à partir de descriptions textuelles.
E
Embedding
Representation numérique d'un element (mot, phrase, image) sous forme de vecteur. Les embeddings permettent aux modèles de comprendre les relations sémantiques entre elements similaires. Essentiel pour la recherche sémantique et les systèmes RAG.
Entrainement (Training)
Processus par lequel un modèle d'IA apprend à partir de donnees. L'entrainement ajuste les parametres du modèle pour minimiser les erreurs de prediction. Peut necessiter des semaines de calcul sur des milliers de GPU pour les grands modèles.
F
Fine-tuning
Technique d'adaptation d'un modèle pre-entraine à une tache ou un domaine spécifique. Plutot que d'entrainer un modèle de zero, on ajuste un modèle existant avec de nouvelles donnees specialisees. Plus rapide et moins couteux que l'entrainement complet.
Foundation Model
Grand modèle d'IA pre-entraine sur des donnees massives, servant de base pour diverses applications. GPT-4, Claude et LLaMA sont des foundation models qui peuvent etre adaptes à de nombreuses tâches sans reentrainement complet.
G
GPT (Générative Pre-trained Transformer)
Architecture de modèle de langage developpee par OpenAI. GPT est entraine à predire le mot suivant dans une sequence, ce qui lui permet de generer du texte coherent. GPT-4 est la version la plus avancee, capable de raisonnement complexe.
GPU (Graphics Processing Unit)
Processeur graphique utilise pour accelerer les calculs d'IA. Les GPU peuvent effectuer des milliers d'operations en parallele, ce qui les rend ideaux pour l'entrainement de réseaux de neurones. NVIDIA domine le marche avec ses GPU H100.
H
Hallucination
Phenomene ou un modèle d'IA genere des informations fausses mais presentees avec confiance. Les LLM peuvent inventer des faits, citations ou references qui n'existent pas. Un défi majeur pour la fiabilite des systèmes d'IA.
I
IA Générative
Systèmes d'IA capables de créer du nouveau contenu : texte, images, musique, video, code. ChatGPT, Midjourney et Suno sont des exemples d'IA generative. Revolution majeure depuis 2022.
Inference
Phase d'utilisation d'un modèle entraine pour faire des predictions sur de nouvelles donnees. Contrairement à l'entrainement, l'inference est rapide et moins couteuse en ressources. C'est ce qui se passe quand vous utilisez ChatGPT.
L
LLM (Large Language Model)
Modèle de langage massif entraine sur d'enormes quantites de texte. Les LLM comme GPT-4, Claude et Gemini comprennent et generent du langage naturel avec une qualité quasi-humaine. Ils alimentent les chatbots modernes et les assistants IA.
LLaMA
Famille de modèles de langage open-source developpes par Meta. LLaMA permet aux chercheurs et entreprises de créer leurs propres applications d'IA sans dependre des API proprietaires.
M
Midjourney
Outil de generation d'images par IA accessible via Discord. Midjourney crée des images artistiques de haute qualité à partir de descriptions textuelles. Très populaire pour l'illustration et le design.
Modèle multimodal
IA capable de traiter plusieurs types de donnees : texte, images, audio, video. GPT-4V, Gemini et Claude 3 sont multimodaux, pouvant analyser des images et generer du texte en réponse.
N
NLP (Natural Language Processing)
Traitement automatique du langage naturel. Domaine de l'IA qui permet aux machines de comprendre, interpreter et generer du langage humain. Utilise pour la traduction, l'analyse de sentiment et les chatbots.
Neurone artificiel
Unite de base d'un réseau de neurones, inspiree des neurones biologiques. Recoit des entrees, applique des poids et une fonction d'activation pour produire une sortie. Des milliards de neurones interconnectes forment les modèles modernes.
O
OpenAI
Entreprise americaine leader dans la recherche en IA, createur de ChatGPT, GPT-4 et DALL-E. Fondee en 2015, OpenAI à lance la revolution de l'IA générative avec le lancement de ChatGPT en novembre 2022.
Overfitting (Surapprentissage)
Problème ou un modèle apprend trop bien les donnees d'entrainement et generalise mal sur de nouvelles donnees. Le modèle "memorise" au lieu d'apprendre des patterns generalissables.
P
Parametres
Valeurs numériques ajustees pendant l'entrainement qui definissent le comportement du modèle. GPT-4 à environ 1.7 trillion de parametres. Plus un modèle à de parametres, plus il peut capturer de complexite.
Prompt
Instruction ou question donnee à un modèle d'IA pour obtenir une réponse. L'art de rediger des prompts efficaces s'appelle le prompt engineering. Un bon prompt peut drastiquement ameliorer la qualité des réponses.
Prompt Engineering
Discipline consistant à concevoir des instructions optimales pour obtenir les meilleurs résultats d'un modèle d'IA. Compétence de plus en plus recherchee en entreprise. Inclut des techniques comme le few-shot learning et le chain-of-thought.
R
RAG (Retrieval-Augmented Génération)
Technique combinant recherche documentaire et generation de texte. Le modèle recupere d'abord des informations pertinentes dans une base de connaissances avant de generer sa réponse. Reduit les hallucinations et permet d'utiliser des donnees proprietaires.
Reinforcement Learning (Apprentissage par renforcement)
Méthode ou un agent apprend par essai-erreur en recevant des recompenses ou penalites. Utilise pour entrainer des IA de jeux (AlphaGo) et affiner les LLM via RLHF (Reinforcement Learning from Human Feedback).
Reseau de neurones
Architecture computationnelle inspiree du cerveau humain, composee de couches de neurones artificiels interconnectes. Les réseaux de neurones profonds (deep neural networks) sont à la base de toutes les avancees recentes en IA.
S
Stable Diffusion
Modèle open-source de generation d'images developpe par Stability AI. Permet de créer des images à partir de texte et peut fonctionner sur un ordinateur personnel. Alternative gratuite à DALL-E et Midjourney.
T
Token
Unite de base de texte traitee par un LLM. Un token peut etre un mot, une partie de mot ou un caractere. En moyenne, 1 token = 0.75 mot en anglais, un peu moins en français. Les API facturent par nombre de tokens.
Transformer
Architecture revolutionnaire de réseau de neurones introduite par Google en 2017. Les Transformers utilisent l'attention pour traiter les sequences de donnees en parallele. Base de GPT, BERT, Claude et tous les LLM modernes.
Temperature
Parametre controlant la creativite des réponses d'un LLM. Temperature basse (0-0.3) = réponses plus deterministes et factuelles. Temperature haute (0.7-1) = réponses plus creatives et variees.
Maîtrisez le vocabulaire IA en pratique
Nos formations vous permettent d'appliquer ces concepts dans votre metier
Découvrir nos formations IA🎯 Formations IA Avancées
Approfondissez vos compétences en intelligence artificielle

