Vocabulaire de l'Intelligence Artificielle
Glossaire complet avec 50+ termes IA expliques simplement. De A comme Agent IA à T comme Transformer.
L'intelligence artificielle utilise un vocabulaire technique qui peut sembler complexe. Ce glossaire vous aide à comprendre les termes essentiels utilises dans le domaine de l'IA, du machine learning et du deep learning. Que vous soyez débutant ou professionnel, ces definitions vous permettront de mieux apprehender les concepts cles.
Plus qu'un organisme de formation,
un mouvement
Ambassadeur gouvernemental, organisateur du 1er hackathon agents IA de France, partenaire des ecoles et des institutions.
A
Agent IA
Systeme d'intelligence artificielle capable d'agir de maniere autonome pour atteindre des objectifs. Un agent IA peut percevoir son environnement, prendre des decisions et executer des actions sans intervention humaine constante. Exemples : assistants virtuels, robots autonomes, systemes de trading automatise.
Algorithme
Suite d'instructions definies permettant de resoudre un probleme ou d'accomplir une tache. En IA, les algorithmes sont utilises pour entrainer des modeles, faire des predictions et prendre des decisions automatisees.
Apprentissage automatique (Machine Learning)
Branche de l'IA ou les systemes apprennent à partir de donnees sans etre explicitement programmes. Le machine learning permet aux ordinateurs d'identifier des patterns et de faire des predictions basees sur l'experience. C'est la technologie derriere les recommandations Netflix, la detection de fraude et la reconnaissance vocale.
Apprentissage profond (Deep Learning)
Sous-domaine du machine learning utilisant des reseaux de neurones artificiels à plusieurs couches. Le deep learning excelle dans la reconnaissance d'images, le traitement du langage naturel et la generation de contenu. GPT, DALL-E et les voitures autonomes utilisent le deep learning.
Apprentissage supervise
Methode d'entrainement ou le modele apprend à partir d'exemples etiquetes. On fournit des donnees d'entree avec les reponses attendues, et le modele apprend à reproduire ces associations. Utilise pour la classification d'emails (spam/non-spam) ou la prediction de prix.
Apprentissage non supervise
Methode ou le modele trouve des structures cachees dans des donnees non etiquetees. Le systeme identifie lui-meme des patterns sans qu'on lui dise quoi chercher. Utilise pour la segmentation de clients ou la detection d'anomalies.
API (Application Programming Interface)
Interface permettant à des applications de communiquer entre elles. Les API d'IA (OpenAI, Anthropic, Google) permettent d'integrer des capacites d'intelligence artificielle dans vos propres applications sans avoir à creer les modeles vous-meme.
B
Biais algorithmique
Erreur systematique dans un systeme d'IA qui produit des resultats injustes ou discriminatoires. Les biais proviennent souvent des donnees d'entrainement qui refletent des prejuges humains. Un enjeu ethique majeur dans le deploiement de l'IA.
Big Data
Ensembles de donnees massifs caracterises par leur volume, velocite et variete. Le Big Data est essentiel pour entrainer les modeles d'IA modernes qui necessitent des millions voire des milliards d'exemples pour atteindre de bonnes performances.
C
ChatGPT
Chatbot developpe par OpenAI base sur le modele GPT. ChatGPT peut converser, rediger du contenu, coder et repondre à des questions complexes. C'est l'application d'IA grand public la plus populaire avec plus de 100 millions d'utilisateurs.
Claude
Assistant IA developpe par Anthropic, concu pour etre utile, inoffensif et honnete. Claude excelle dans l'analyse de documents longs, le raisonnement et les tâches de codage. Alternative populaire à ChatGPT.
Computer Vision
Domaine de l'IA permettant aux machines d'interpreter et comprendre le contenu visuel (images, videos). Utilise pour la reconnaissance faciale, les voitures autonomes, le controle qualite industriel et l'imagerie medicale.
Contexte (Context Window)
Quantite d'information qu'un modele de langage peut traiter en une seule fois. Mesuree en tokens, la fenetre de contexte determine combien de texte le modele peut "voir" pour generer sa reponse. GPT-4 à une fenetre de 128K tokens, Claude 200K tokens.
D
Data Science
Discipline combinant statistiques, programmation et expertise metier pour extraire des insights des donnees. Les data scientists utilisent le machine learning pour creer des modeles predictifs et aider à la prise de decision.
Dataset
Ensemble structure de donnees utilise pour entrainer ou evaluer un modele d'IA. La qualite et la diversite du dataset determinent en grande partie les performances du modele final.
Diffusion (Modele de)
Technique de generation d'images ou le modele apprend à transformer du bruit aleatoire en images coherentes. Stable Diffusion, DALL-E et Midjourney utilisent cette approche pour creer des images à partir de descriptions textuelles.
E
Embedding
Representation numerique d'un element (mot, phrase, image) sous forme de vecteur. Les embeddings permettent aux modeles de comprendre les relations semantiques entre elements similaires. Essentiel pour la recherche semantique et les systemes RAG.
Entrainement (Training)
Processus par lequel un modele d'IA apprend à partir de donnees. L'entrainement ajuste les parametres du modele pour minimiser les erreurs de prediction. Peut necessiter des semaines de calcul sur des milliers de GPU pour les grands modeles.
F
Fine-tuning
Technique d'adaptation d'un modele pre-entraine à une tache ou un domaine specifique. Plutot que d'entrainer un modele de zero, on ajuste un modele existant avec de nouvelles donnees specialisees. Plus rapide et moins couteux que l'entrainement complet.
Foundation Model
Grand modele d'IA pre-entraine sur des donnees massives, servant de base pour diverses applications. GPT-4, Claude et LLaMA sont des foundation models qui peuvent etre adaptes à de nombreuses tâches sans reentrainement complet.
G
GPT (Generative Pre-trained Transformer)
Architecture de modele de langage developpee par OpenAI. GPT est entraine à predire le mot suivant dans une sequence, ce qui lui permet de generer du texte coherent. GPT-4 est la version la plus avancee, capable de raisonnement complexe.
GPU (Graphics Processing Unit)
Processeur graphique utilise pour accelerer les calculs d'IA. Les GPU peuvent effectuer des milliers d'operations en parallele, ce qui les rend ideaux pour l'entrainement de reseaux de neurones. NVIDIA domine le marche avec ses GPU H100.
H
Hallucination
Phenomene ou un modele d'IA genere des informations fausses mais presentees avec confiance. Les LLM peuvent inventer des faits, citations ou references qui n'existent pas. Un defi majeur pour la fiabilite des systemes d'IA.
I
IA Generative
Systemes d'IA capables de creer du nouveau contenu : texte, images, musique, video, code. ChatGPT, Midjourney et Suno sont des exemples d'IA generative. Revolution majeure depuis 2022.
Inference
Phase d'utilisation d'un modele entraine pour faire des predictions sur de nouvelles donnees. Contrairement à l'entrainement, l'inference est rapide et moins couteuse en ressources. C'est ce qui se passe quand vous utilisez ChatGPT.
L
LLM (Large Language Model)
Modele de langage massif entraine sur d'enormes quantites de texte. Les LLM comme GPT-4, Claude et Gemini comprennent et generent du langage naturel avec une qualite quasi-humaine. Ils alimentent les chatbots modernes et les assistants IA.
LLaMA
Famille de modeles de langage open-source developpes par Meta. LLaMA permet aux chercheurs et entreprises de creer leurs propres applications d'IA sans dependre des API proprietaires.
M
Midjourney
Outil de generation d'images par IA accessible via Discord. Midjourney cree des images artistiques de haute qualite à partir de descriptions textuelles. Tres populaire pour l'illustration et le design.
Modele multimodal
IA capable de traiter plusieurs types de donnees : texte, images, audio, video. GPT-4V, Gemini et Claude 3 sont multimodaux, pouvant analyser des images et generer du texte en reponse.
N
NLP (Natural Language Processing)
Traitement automatique du langage naturel. Domaine de l'IA qui permet aux machines de comprendre, interpreter et generer du langage humain. Utilise pour la traduction, l'analyse de sentiment et les chatbots.
Neurone artificiel
Unite de base d'un reseau de neurones, inspiree des neurones biologiques. Recoit des entrees, applique des poids et une fonction d'activation pour produire une sortie. Des milliards de neurones interconnectes forment les modeles modernes.
O
OpenAI
Entreprise americaine leader dans la recherche en IA, createur de ChatGPT, GPT-4 et DALL-E. Fondee en 2015, OpenAI à lance la revolution de l'IA generative avec le lancement de ChatGPT en novembre 2022.
Overfitting (Surapprentissage)
Probleme ou un modele apprend trop bien les donnees d'entrainement et generalise mal sur de nouvelles donnees. Le modele "memorise" au lieu d'apprendre des patterns generalissables.
P
Parametres
Valeurs numeriques ajustees pendant l'entrainement qui definissent le comportement du modele. GPT-4 à environ 1.7 trillion de parametres. Plus un modele à de parametres, plus il peut capturer de complexite.
Prompt
Instruction ou question donnee à un modele d'IA pour obtenir une reponse. L'art de rediger des prompts efficaces s'appelle le prompt engineering. Un bon prompt peut drastiquement ameliorer la qualite des reponses.
Prompt Engineering
Discipline consistant à concevoir des instructions optimales pour obtenir les meilleurs resultats d'un modele d'IA. Competence de plus en plus recherchee en entreprise. Inclut des techniques comme le few-shot learning et le chain-of-thought.
R
RAG (Retrieval-Augmented Generation)
Technique combinant recherche documentaire et generation de texte. Le modele recupere d'abord des informations pertinentes dans une base de connaissances avant de generer sa reponse. Reduit les hallucinations et permet d'utiliser des donnees proprietaires.
Reinforcement Learning (Apprentissage par renforcement)
Methode ou un agent apprend par essai-erreur en recevant des recompenses ou penalites. Utilise pour entrainer des IA de jeux (AlphaGo) et affiner les LLM via RLHF (Reinforcement Learning from Human Feedback).
Reseau de neurones
Architecture computationnelle inspiree du cerveau humain, composee de couches de neurones artificiels interconnectes. Les reseaux de neurones profonds (deep neural networks) sont à la base de toutes les avancees recentes en IA.
S
Stable Diffusion
Modele open-source de generation d'images developpe par Stability AI. Permet de creer des images à partir de texte et peut fonctionner sur un ordinateur personnel. Alternative gratuite à DALL-E et Midjourney.
T
Token
Unite de base de texte traitee par un LLM. Un token peut etre un mot, une partie de mot ou un caractere. En moyenne, 1 token = 0.75 mot en anglais, un peu moins en francais. Les API facturent par nombre de tokens.
Transformer
Architecture revolutionnaire de reseau de neurones introduite par Google en 2017. Les Transformers utilisent l'attention pour traiter les sequences de donnees en parallele. Base de GPT, BERT, Claude et tous les LLM modernes.
Temperature
Parametre controlant la creativite des reponses d'un LLM. Temperature basse (0-0.3) = reponses plus deterministes et factuelles. Temperature haute (0.7-1) = reponses plus creatives et variees.
Maitrisez le vocabulaire IA en pratique
Nos formations vous permettent d'appliquer ces concepts dans votre metier
Decouvrir nos formations IA🎯 Formations IA Avancées
Approfondissez vos compétences en intelligence artificielle

