Aller au contenu
    IA
    Concept IA

    Machine Learning : quand les machines apprennent seules

    Le machine learning est le moteur de l’IA moderne. C’est grâce à lui que votre boîte mail filtre les spams, que Netflix vous recommande des films, et que ChatGPT peut tenir une conversation. Voici comment ça marche.

    On entend « machine learning » partout, mais rares sont ceux qui peuvent l’expliquer simplement. Le concept est pourtant limpide : au lieu de programmer un ordinateur avec des règles précises pour chaque situation, on lui donne des données et on le laisse apprendre les règles tout seul. C’est comme la différence entre donner à quelqu’un un livre de recettes (programmation classique) et l’envoyer en cuisine avec des centaines de plats à goûter pour qu’il apprenne par lui-même ce qui fonctionne (machine learning).

     

    Machine learning, deep learning, IA : qui est quoi ?

    Ces termes sont souvent utilisés comme des synonymes. Ils ne le sont pas. Voici la hiérarchie :

    L’intelligence artificielle est le domaine le plus large : toute technique qui permet à une machine de simuler un comportement intelligent. Ça inclut des approches très anciennes (systèmes experts, règles logiques) et très récentes (LLM, agents autonomes).

    Le machine learning est une branche de l’IA : les systèmes qui apprennent à partir de données. C’est la méthode dominante depuis 2010 environ, et c’est elle qui propulse l’essentiel de ce qu’on appelle « IA » aujourd’hui.

    Le deep learning est une branche du machine learning : il utilise des réseaux neuronaux profonds (à nombreuses couches). C’est le deep learning qui a rendu possibles les avancées en vision par ordinateur, en traduction automatique, et en IA générative.

    En résumé

    Le deep learning est un sous-ensemble du machine learning, qui est lui-même un sous-ensemble de l’intelligence artificielle. Quand vous utilisez ChatGPT ou Claude, vous utilisez un système de deep learning, entraîné par machine learning, dans le domaine de l’intelligence artificielle. Les trois s’emboîtent comme des poupées russes.

     

    Les trois types d’apprentissage

    L’apprentissage supervisé

    Le plus courant. On donne au modèle des milliers d’exemples avec la « bonne réponse » — des photos de chats étiquetées « chat », des emails étiquetés « spam » ou « pas spam ». Le modèle apprend à reconnaître les motifs qui distinguent chaque catégorie. Quand on lui montre une nouvelle photo ou un nouvel email, il prédit la réponse.

    C’est ce qui fait tourner la détection de fraude bancaire, le diagnostic médical assisté, la reconnaissance d’images, et les systèmes de recommandation.

    L’apprentissage non supervisé

    Pas d’étiquettes, pas de « bonne réponse ». Le modèle explore les données et cherche des structures cachées — des groupes, des anomalies, des corrélations. C’est utile pour segmenter des clients en catégories, détecter des comportements anormaux sur un réseau, ou trouver des tendances dans de grands volumes de données.

    L’apprentissage par renforcement

    Le modèle apprend par essai-erreur, guidé par un système de récompenses. Pas d’exemples étiquetés, pas de structure cachée — juste un objectif et un feedback. C’est cette approche qui a permis à AlphaGo de battre le champion du monde de Go, et c’est le RLHF (renforcement par feedback humain) qui a transformé les LLM bruts en assistants utiles comme ChatGPT et Claude.

     

    Comment ça marche concrètement : un exemple pas à pas

    Prenons un cas simple : entraîner un modèle à prédire le prix d’un appartement.

    01
    Collecter les données

    On rassemble des milliers d’annonces immobilières avec les caractéristiques de chaque appartement (surface, nombre de pièces, quartier, étage…) et le prix de vente réel.

    02
    Entraîner le modèle

    On donne ces données au modèle, qui essaie de trouver la relation entre les caractéristiques et le prix. Au début, ses prédictions sont aléatoires. Itération après itération, il ajuste ses paramètres pour réduire l’écart entre ses prédictions et les vrais prix.

    03
    Évaluer la performance

    On teste le modèle sur des appartements qu’il n’a jamais vus (le jeu de test). Si ses prédictions sont proches des vrais prix, le modèle est bon. Sinon, on ajuste l’architecture, les données ou les paramètres d’entraînement.

    04
    Mettre en production

    Le modèle est déployé. Quand quelqu’un entre les caractéristiques d’un appartement, le modèle estime le prix. C’est exactement ce que font les outils d’estimation immobilière en ligne.

    C’est le même principe — à plus grande échelle — qui s’applique aux LLM. Sauf que les « données » sont des milliards de pages de texte, les « caractéristiques » sont les relations entre les mots, et la « prédiction » est le mot suivant dans une séquence.

     

    Le machine learning dans votre quotidien

    Vous utilisez du machine learning des dizaines de fois par jour sans le savoir :

    • Fil d’actualité — Les algorithmes de Facebook, Instagram, TikTok et YouTube utilisent le ML pour prédire quel contenu vous retiendra le plus longtemps. Chaque like, chaque scroll, chaque pause sur une vidéo est une donnée qui affine le modèle.
    • Filtre anti-spam — Gmail classe vos emails grâce à un modèle qui a appris sur des milliards de messages ce qui distingue un email légitime d’un spam.
    • Recommandations — Netflix, Spotify, Amazon. « Les clients qui ont acheté ceci ont aussi acheté cela » est du machine learning appliqué au commerce.
    • Navigation — Google Maps prédit le temps de trajet et les embouteillages grâce au ML appliqué aux données de millions de trajets passés.
    • Reconnaissance faciale — Le déverrouillage de votre téléphone utilise un modèle de deep learning entraîné à reconnaître votre visage sous différents angles et éclairages.
    • Assistants IA — ChatGPT, Claude, Gemini. Derrière chaque conversation, un modèle de deep learning entraîné par machine learning prédit le mot le plus approprié, un token à la fois.
     

    Les concepts clés à retenir

    Données d’entraînement

    La matière première du machine learning. La qualité du modèle dépend directement de la qualité et de la diversité des données. Un modèle entraîné principalement sur des données anglophones sera moins bon en français. Un modèle entraîné sur des données biaisées reproduira ces biais.

    Overfitting (surapprentissage)

    Quand un modèle apprend trop bien les données d’entraînement — y compris leur bruit et leurs particularités — et ne sait plus généraliser à de nouvelles données. C’est comme un étudiant qui mémorise les réponses du corrigé sans comprendre le cours. Il aura 20/20 sur l’examen de l’année dernière, mais échouera sur de nouvelles questions.

    Biais

    Un modèle reproduit les biais présents dans ses données d’entraînement. Si les données contiennent des stéréotypes (associer certains métiers à certains genres, par exemple), le modèle les reproduira. C’est un problème sérieux qui fait l’objet de recherches actives et de réglementations (AI Act).

    Inférence

    Le moment où le modèle est utilisé — quand il génère une réponse, fait une prédiction ou prend une décision. L’entraînement se fait une fois (ou périodiquement). L’inférence se fait à chaque utilisation. Quand vous parlez à Claude, chaque réponse est de l’inférence.

     

    Ce que le machine learning ne fait pas (encore)

    Il ne comprend pas. Un modèle de ML reconnaît des motifs statistiques dans les données. Il ne comprend pas le sens de ce qu’il traite. Un modèle qui traduit parfaitement du français vers l’anglais ne « parle » ni l’un ni l’autre — il a appris les correspondances statistiques entre les deux langues.

    Il ne raisonne pas comme un humain. Les modèles de raisonnement de 2026 (GPT-5.4 Thinking, Claude Opus 4.6) simulent un raisonnement en décomposant les problèmes en étapes. C’est impressionnant et utile, mais ce n’est pas du raisonnement au sens humain — c’est de la prédiction de séquences très sophistiquée.

    Il dépend entièrement de ses données. Un modèle ne peut pas savoir ce qu’il n’a jamais vu. C’est pourquoi les outils IA ont une date de coupure de connaissances, et pourquoi la recherche web intégrée (Deep Research, Claude avec recherche web) est si importante pour les questions d’actualité.

    Ce qu’il faut retenir

    Le machine learning n’est ni magique ni mystérieux. C’est des maths appliquées à des données, à grande échelle. Comprendre ça change votre rapport aux outils IA : vous savez pourquoi ils sont bons (beaucoup de données, beaucoup de calcul), pourquoi ils se trompent (données incomplètes ou biaisées), et comment en tirer le meilleur parti (donner du contexte, être précis, vérifier les faits).

    Aller plus loin
    Découvrez tous nos guides IA

    Concepts, tendances, guides pratiques… Tout ce qu’il faut connaître sur l’IA.

    Explorer le blog
    Mise à jour : mars 2026