Fonctionnement de l'IA

Jean-Michel Richer

EC Informatique - LERIA - Université d'Angers

11 Février 2026

Collège Saint-Charles, Angers

Logo UA           Logo Fac. Sciences

Retrouver la conférence

La révolution IA

  • depuis Novembre 2022 (arrivée de ChatGPT), l'IA est passée du laboratoire de recherche à notre vie quotidienne
  • révolution comme la micro-informatique à son époque ou internet
  • on peut écrire une requête en langage naturel
  • et obtenir une réponse construite et non une liste de liens à visiter (texte, image, PDF, tableau, ...)
  • cette révolution bouleverse la façon d'apprendre et d'enseigner

Destruction créatrice

Google AI Studio : mauvaise IA (Terminator) vs bonne IA (Z-6PO/C-3PO)

Terminator vs Z6PO
Dreamshaper  

Notre manière
d'utiliser l'IA
influencera notre avenir

Ordinateur et IA

une Intelligence Artificielle n'est rien d'autre qu'un programme informatique

ce programme s'exécute sur un ordinateur qui n'a aucune intelligence


alors comment ça marche ? pourquoi la machine nous apparaît-elle comme intelligente ?

Plan


  1. Qu'est ce qu'un ordinateur ?
  2. Qu'est ce que l'IA ?
  3. Résolution de problèmes
  4. Réseaux de neurones
  5. LLM
  6. Conclusion

1. Qu'est-ce qu'un ordinateur ?

Comment ça marche ?

un outil mécanique / électrique / électronique

calculatrice, micro-ordinateur, supercalculateur

Un appareil rudimentaire

En quelque sorte un orgue de Barbarie

orgue de barbarie
  • n'est pas vivant
  • ne possède pas de conscience propre ou de son environnement
  • ne possède pas de volonté, pas de sentiments
  • ne possède pas d'intelligence
  • il exécute les instructions données par un humain
  • pas de magie : tout est le résultat de calculs

2. Qu'est ce que l'IA ?

Naissance de l'IA

les thinking machines

1956 Université d'été aux USA au Dartmouth College (New Hampshire)

Marvin Minsky, John McCarthy, Claude Shannon, Nathaniel Rochester, John Henry Holland, ...(lien Wikipedia)

Choix du terme IA

L'IA Définition Simple


Définition de 1968

Science qui consiste à faire faire à des machines des choses qui exigeraient de l'intelligence si elles étaient faites par des hommes

Marvin Minsky (1927 - 2016)

IA et Informatique


A priori, calculer une moyenne n'est pas de l'IA

$ moyenne = \frac{10 + 14 + 12}{3}$

l'IA implique une part d'intelligence humaine :

  • résoudre des problèmes complexes (jouer aux échecs, problèmes de géométrie, ...)
  • reconnaître des objets, animaux sur une photo
  • se déplacer de manière autonome (robot, taxi)

En quoi consiste l'IA ?

créer des programmes qui incorporent de l'intelligence humaine

l'ordinateur est capable de traiter les problèmes par force brute : on teste toutes les solutions possibles

mais certains problèmes prendraient trop de temps à être traités en faisant tous les calculs nécessaires, il faut donc modifier ces programmes pour intégrer des astuces humaines

Au final c'est quoi l'IA ?

ce n'est que du calcul


  • calculs intelligents qui tentent de reproduire le raisonnement humain de manière automatique
  • astuces (heuristiques)
  • éviter de faire des calculs inutiles (coupes $\alpha \beta$)

Domaines de l'IA ?


  • raisonnement : logique, démonstration automatique, graphes, ...
  • compréhension de notre environnement : analyse d'image, vision artificielle
  • compréhension du langage : LLM (ChatGPT, CoPilot, Gemini, ...)
  • résolution de problèmes complexes : force brute, optimisation combinatoire (métaheuristiques, RO)
  • apprentissage : extraire de l'information des données
  • ...

3. Résolution de problèmes

Chemin hamiltonien

trouver un chemin passant par tous les points d'un graphe complet une seule fois et de longueur minimale

Applications

Applications


  • livraisons de colis
  • ramassage des déchets
  • maintenance d'infastructures (plusieurs sites)
  • soudures de véhicules
  • assemblage de fragments d'ADN

Résolution du Chemin hamiltonien

Problème d'optimisation de complexité en $O(n!)$ si $n$ villes

  • force brute : $O(n!)$
  • si $n = 20$ alors $n! \simeq 2,4 × 10^{18}$ chemins
  • soit environ $77$ ans si on génère un chemin toutes les $1$ ns

Utilisation d'Heuristique

la force brute n'est pas toujours adaptée

$117! \simeq 4 × 10^{192}$ soit $1,25 × 10^{176}$ ans pour résoudre le problème

on utilise des heuristiques (du grec ancien εὑρίσκω, heuriskô, «je trouve») qui sont des astuces

labyrinthe : se diriger en direction de la sortie

Heuristique

choisir la ville la plus proche : aller de proche en proche

mais ne donne pas forcément le meilleur chemin !

Autre exemple

4. Réseaux de Neurones

Réseaux de neurones

A la base des LLM (Large Language Models) et des IA génératives.

  • premiers travaux : 1943 Warren McCulloch and Walter Pitts
  • 1957, Frank Rosenblatt simule le perceptron sur un IBM 704
  • 1967 Shun'ichi Amari multi-couches et backpropagation

Les Réseaux de Neurones

  • un réseau de neurones artificiels est un programme inspiré du fonctionnement du cerveau humain
  • Son but est de permettre à une machine d'apprendre à partir d'exemples
  • pour réaliser des tâches qu'un programme classique ne pourrait pas accomplir

Exemple : reconnaissance de chiffres

Les Réseaux de Neurones

MNIST (Mixed National Institute of Standards and Technology)

60000 images d'apprentissage et 10000 images de test en noir et blanc de 28 pixels de côté

Les Réseaux de Neurones

un réseau de neurones est une fonction de calcul qui possède

  • $e$ entrées (neurones)
  • $s$ sorties (neurones)
  • $k$ couches intermédiaires (cachées) de $n_k$ neurones

le réseau «apprend» grâce aux exemples

Les Réseaux de Neurones

un réseau de neurones permet de faire

  • de la classification (ex: image $\rightarrow$ animal)
    $[0, 1, 0, 0]$
  • de la prédiction (ex: évolution du cours d'une action)
    $[0.2, 0.45, 0.01, 0.82]$
  • de la génération de contenu (ex: rédiger un texte)

il doit cependant «apprendre» avant de pouvoir inférer

Exemple

réseau de neurones artificiel

Un réseau de Neurones

réseau de neurones artificiel

Le Neurone Artificiel

une modélisation théorique d'un neurone :

  • un interrupteur (on/off) : $\{0,1\}$, $\{-1,1\}$
  • ou un prédicteur : $[0,1]$, $[-1,1]$, $[-1,+\infty]$
  • des entrées (valeurs réelles)
  • une sortie (valeur réelle)
  • une fonction d'activation : l'interrupteur ou le prédicteur

Le Neurone Artificiel

neurone artificiel

Aprrentissage d'un RN

consiste à trouver les $w_{i,j}$, initialement aléatoires de manière à minimiser les erreurs sur les sorties

  • il faut disposer de plusieurs exemples pour lesquels on connaît les valeurs en entrée et en sortie (étiquetés)
  • on calcule le résultat des sorties et on ajuste (backpropagation) par rapport à la valeur attendue $\rightarrow$ beaucoup de calculs

Exemple des Iris de Fisher

  • données : longueur et largeur des sépales et pétales pour trois espèces (setosa, versicolor, virginica)
  • comment reconnaître / identifier une espèce ?

Données des Iris

"sepal.length","sepal.width","petal.length","petal.width","variety"
5.1, 3.5, 1.4,. 2, "Setosa"
4.9, 3.0, 1.4, .2, "Setosa"
...

longueur et largeur des sépales

IRIS - Pair plot

IRIS - Long. et larg. des pétales

IRIS - Réseau de neurones

I0000 00:00 StreamExecutor device (0): NVIDIA GeForce RTX 3050, 
Compute Capability 8.6
I0000 00:00 65852 cuda_dnn.cc:529] Loaded cuDNN version 90701

Temps d'exécution : 10.46 secondes pour 350 epochs

5/5 ━━━━━━━━━━━━━━━━━━━━ 1s 52ms/step
Accuracy NN: 0.99
Confusion Matrix NN:
        s  v  v
        e  s  i
        t  c  r
 set [[50  0  0]
 vsc  [ 0 49  1] ← mauvaise prédiction
 vir  [ 0  0 50]]
Classification Report NN:
               precision    recall  f1-score   support

      setosa       1.00      1.00      1.00        50
  versicolor       1.00      0.98      0.99        50
   virginica       0.98      1.00      0.99        50

    accuracy                           0.99       150
   macro avg       0.99      0.99      0.99       150
weighted avg       0.99      0.99      0.99       150   

IRIS - Réseau de neurones

classement iris réseau de neurones

IRIS - Réseau de neurones

loss function evolution

5. LLM

Définition LLM

à la base des IA génératives il y a les LLM

Grands Modèles de Langage

  • un programme capable de comprendre, de traiter et de générer du langage humain
  • basé sur la prédiction du mot suivant le plus probable dans une phrase
  • des millions de texte (roman, chat, articles scientifiques, ...)
  • apprentissage avec un réseau de neurones

LLM et Traitement du langage

Comment les LLM comprennent-ils ?

  • tokenization : découpage des mots
  • word embedding : vectorisation
  • pré-training auto-supervisé : auto complete
  • fine-tuning supervisé : éduquer le modèle
  • fine-tuning par les préférences : alignement
  • fine-tuning par le raisonnement : qualité de la réponse
  • mécanisme d'Attention, RAG, Multimodal, ...

RN et LLM

Transformer les mots en nombres : Word embeddings

Initialement :

  • chat $[1, 0, ..., 0]$
  • chien $[0, 1, ..., 0]$

  • RN de $10\_000$ entrées si dictionnaire de $10\_000$ mots
  • couche intermédiaire 300 neurones (compression de l'information)
  • couche de sortie probabiliste de $10\_000$ mots

deviner le contexte : "Le ___ mange la souris" $\rightarrow$ "chat".

Word Embeddings

Au final : un espace vectoriel sémantique


  • composé des valeurs des vecteurs de la couche de 300 neurones
  • les mots ayant des sens proches se retrouvent proches géographiquement dans cet espace

$V("roi") - V("homme") + V("femme") \simeq V("reine")$

1. Pré-training auto supervisé

apprentissage de la structure du langage

  • prédire le mot suivant d'un texte $\rightarrow$ auto-complete
  • modèle de fondation : 2018 GPT1, 2019 GPT2, 2020 GPT3
  • exemple : Deepseek 15000 milliards de mots
  • pas d'esprit critique :

Gaston Lagaffe a découvert l'amérique à bord de la Santa Maria $\rightarrow$ en 1492

1. Pré-training auto supervisé

néanmoins l'ajout d'un pré-prompt permet de donner du sens à la conversation

Ceci est une conversation entre un élève et un professeur qui est là pour l'aider.
Elève : Je cherche à mieux comprendre le concept d'héritage en C++.
Professeur : $\rightarrow$ génération de la réponse

2. Fine-tuning supervisé

consiste à éduquer le modèle


  • modèles instruct
  • travailler la nature de l'interaction d'une conversation, la nature des réponses, tours de parole à partir d'exemples
  • ne règle pas le problème de l'alignement

2. Fine-tuning supervisé

Exemple : exécution d'une tâche directe


Utilisateur : "Résume en trois points clés l'importance des abeilles pour l'écosystème."

Assistant : 1. Pollinisation : Elles permettent la reproduction de 80 % des plantes à fleurs et de nombreuses cultures alimentaires. 2. Biodiversité : ...

2. Fine-tuning supervisé

Exemple multi-tours : conservation du contexte

Utilisateur : "Qui a écrit 'Les Misérables' ?"

Assistant : C'est Victor Hugo qui a écrit ce chef-d'œuvre de la littérature française, publié en 1862.

Utilisateur : "Donne-moi ses trois autres romans les plus connus." (Note : Le modèle comprend que "ses" se rapporte à Victor Hugo).

Bien sûr ! Voici trois autres œuvres majeures de Victor Hugo : Notre-Dame de Paris (1831)...

3. Fine-tuning par les préférences

feedback sur les réponses produites


  • production de plusieurs réponses
  • DPO (Direct Preference Optimization) : calcul de la probabilités pour les réponses (distribution de probabilités sur les mots)
  • amélioration du modèle en fonction de la probabilité choisie

3. Fine-tuning par les préférences

Variante avec modèle de récompense

fine tuning par les préférences
Fine-Tuning par les préférences
  • entraînement d'un réseau de neurone à partir d'un classement des réponses (modèle de récompense)
  • amélioration automatique du modèle de langage en fonction du modèle de récompense

4. Fine-tuning par le raisonnement

un raisonnement apporte plus d'exactitude

  • actuellement les LLM passent par plusieurs étapes de raisonnement
  • plus il y a de raisonnement, meilleure est la réponse
  • un peu comme les humains
  • chain of thoughts

Chain of Thoughts (CoT)

constat : pour un humain, résoudre une équation complexe de tête est difficile, mais si on écrit chaque étape sur un papier, on réussit beaucoup mieux

Problème

Sarah a 5 pommes. Elle en donne 2 à son voisin. Elle achète ensuite 2 paquets de 3 pommes. Combien de pommes a-t-elle ?

Chain of Thoughts (CoT)

sans CoT, le modèle peut se tromper

Sarah a 8 pommes

avec CoT

  • au départ, Sarah a 5 pommes
  • elle en donne 2, donc il lui en reste 3 (5 - 2 = 3)
  • elle achète 2 paquets de 3, ce qui fait 6 nouvelles pommes (2 x 3 = 6)
  • elle en a maintenant 3 + 6 = 9

Chain of Thoughts (CoT)

la «phrase magique» : Zero-Shot CoT

les chercheurs ont découvert en 2022 qu'il n'est même pas nécessaire de donner des exemples au modèle. Il suffit d'ajouter une simple phrase à la fin de sa question pour activer ce mode de pensée

réfléchissons étape par étape" (let's think step by step)

Mécanisme d'attention

L'Attention : permet au modèle de pondérer l'importance de chaque mot par rapport aux autres

Le lion mange le zèbre, il est rassasié

il ? qui est rassasié ?

  • pour un humain c'est évient
  • pour une machine : elle ne sait pas mais l'attention résoud le problème

Retrieval-Augmented Generation

  • LLM limité par la date de son entraînement
  • absence de données privées

utilisation de sources de données externes spécialisées

  1. retrieval : recherche dans la bibliothèque
  2. augmented : ajout des données pertinentes
  3. generation : rédaction de la réponse

Multimodal

MLLM - Multimodal Large Language Model

capacité à prendre en compte différentes sources de données

  • texte
  • image
  • vidéo
  • code source, tableur, pdf

Multimodal

Exemples

  • photo du contenu du frigo : que puis-je cuisiner ?
  • graphique financier : résume-moi la tendance principale
  • vidéo YouTube : à quel moment exact parle-t-on d'IA ?"

6. Conclusion

Conclusion

L'IA = pas de magie, des calculs, simulation de la pensée

  • pas de compréhension : dans les LLM les mots ne sont pas compris
  • l'ordinateur «a appris» à mettre les mots dans le bon ordre
  • ou à appliquer des schémas conversationnels
  • montre cependant une certaine «conscience»

Conclusion

Cependant, L'IA commet des erreurs


  • hallucinations, biais
  • garder toujours un esprit critique quant au résultat produit par une IA
  • bien rédiger un prompt permet d'obtenir la «bonne» réponse (détails)
  • ne pas se reposer uniquement sur l'IA

Réflexion

L'IA ne pense pas, elle calcule. Mais elle calcule si bien qu'elle finit par produire les mêmes résultats qu'un être qui pense

Merci pour votre attention

Questions ?

Futurama

Liens