Fondations des transformateurs multimodaux : aligner les embeddings texte, image, audio et vidéo

Les transformateurs multimodaux ne sont plus une idée théorique. Ils sont en train de redéfinir ce que signifie comprendre le monde numérique. Au lieu de traiter le texte, l’image, l’audio ou la vidéo séparément, ces modèles apprennent à les voir comme des langages différents qui parlent la même langue profonde. C’est comme écouter quelqu’un parler, regarder ses gestes, et entendre le ton de sa voix - et comprendre tout ça en même temps, sans avoir à traduire chaque élément un par un.

Comment ça marche, concrètement ?

Le cœur de tout cela, c’est l’architecture Transformer, née en 2017 avec le papier Attention Is All You Need. Mais ce qui a changé depuis, c’est qu’on a appris à l’adapter à plus qu’un seul type de données. Aujourd’hui, un transformateur multimodal prend en entrée du texte, une image, un extrait audio, et même une vidéo - et il les transforme tous en une série de nombres, appelés embeddings. Ces embeddings ne sont pas des pixels ou des mots. Ce sont des points dans un espace mathématique à plusieurs centaines de dimensions, où des mots comme "chien" et des images de chiens se retrouvent presque au même endroit.

Pour y arriver, chaque modalité a son propre prétraitement. Le texte est découpé en sous-mots avec WordPiece (30 522 mots dans le vocabulaire de BERT). Les images sont divisées en patchs de 16x16 pixels, chaque patch devenant un vecteur de 768 valeurs. L’audio est converti en spectrogrammes Mel à 128 bandes, et la vidéo ? Elle est découpée en tubelets : des segments de 16 images, chacune divisée en patchs. Tout ça donne des embeddings de tailles similaires - presque toujours entre 768 et 1024 dimensions - pour qu’ils puissent être mélangés.

Ensuite, tout passe par un seul et même réseau Transformer. Pas deux, pas trois. Un seul. C’est ce qu’on appelle le modèle à flux unique, comme VATT. Contrairement aux anciennes approches avec deux transformateurs séparés (l’un pour le texte, l’autre pour l’image), cette méthode réduit le nombre de paramètres de 18 % tout en gardant la même précision. C’est plus efficace. Moins lourd. Plus rapide à entraîner.

Comment on apprend à les aligner ?

Aligner, c’est le vrai défi. Un mot et une image peuvent être similaires, mais pas identiques. Comment faire pour que "oiseau qui chante" corresponde à la bonne vidéo d’un oiseau en train de chanter, et pas à une autre où il vole en silence ?

La réponse : l’apprentissage contrastif. Le modèle reçoit des paires de données : une image et sa légende, un extrait audio et le mot correspondant. Il apprend à rapprocher les embeddings des paires correctes, et à éloigner ceux des paires erronées. C’est comme jouer à un jeu où tu dois associer des cartes. Si tu mets deux cartes qui vont ensemble, tu gagnes un point. Si tu les mets mal, tu perds. La fonction de perte la plus utilisée s’appelle InfoNCE. Elle utilise une température entre 0,05 et 0,15 pour régler la finesse du rapprochement. Trop haute ? Tout devient flou. Trop basse ? Le modèle ne généralise plus.

Les résultats parlent d’eux-mêmes. Sur la tâche de recherche vidéo-texte (MSR-VTT), les meilleurs modèles atteignent 78,3 % de rappel au rang 10. C’est 16 points de plus que les méthodes unimodales. Sur le benchmark Kinetics-400 pour la reconnaissance d’actions vidéo, VATT-v2 (octobre 2024) atteint 89,7 % de précision - une amélioration de 4,2 % par rapport à sa version précédente.

Quelles sont les différences entre les approches ?

Pas tous les transformateurs multimodaux sont faits pareil. Il y a deux grandes familles.

  • Les modèles à deux flux (comme ViLBERT ou LXMERT) : ils ont un transformateur pour le texte, un autre pour l’image, et ils échangent des informations via des mécanismes d’attention croisée. Ils sont précis - 75,2 % sur VQA v2 - mais gourmands en paramètres. 23 % de plus que les modèles unifiés.
  • Les modèles à flux unique (comme VATT ou CLIP) : ils transforment chaque modalité en embedding, puis les envoient tous ensemble dans un seul Transformer. Moins de paramètres, même performance. C’est la voie dominante aujourd’hui.

Il y a aussi des variantes plus récentes. Twelve Labs a testé une méthode de co-tokenisation : au lieu de traiter le texte et la vidéo séparément, ils les fusionnent en une seule séquence de tokens. Résultat ? +3,7 % de précision sur les questions sur vidéos. Mais ça coûte 29 % plus de puissance de calcul. Pas toujours rentable.

Et puis il y a l’audio. Le plus difficile. Même avec des modèles comme AST (Audio Spectrogram Transformer), les erreurs de reconnaissance restent élevées : 82,4 % de réduction d’erreur sur LibriSpeech, contre 92,1 % pour les systèmes texte-seul. L’audio a du bruit, des variations de ton, des accents, des silences. C’est plus chaotique. Et les modèles le sentent.

Un scientifique en argile équilibre des paires correctes et incorrectes sur une balance, avec des éclats de lumière lors des bonnes associations.

Les limites réelles - ce que les chercheurs disent vraiment

Les chiffres sont impressionnants. Mais ce que disent les experts, c’est autre chose.

Fei-Fei Li, de Stanford, a remarqué un phénomène étrange : quand on ajoute du son à une tâche de question-réponse visuelle, la précision monte de 15 % - même si la question ne parle pas du son. C’est comme si le modèle comprenait mieux l’image parce qu’il entendait un contexte. C’est ce qu’on appelle des capacités émergentes. Pas programmées. Apprises.

Mais Yann LeCun, de Meta, a mis en garde : "La plupart de ces systèmes sont des machines d’alignement, pas de compréhension." Il cite le Multimodal Reasoning Benchmark : 43,7 % d’échecs sur des questions simples comme "Pourquoi ce chien aboie-t-il ?" Le modèle peut dire "il voit un inconnu" - mais il ne comprend pas la peur, ni l’instinct territorial. Il associe, pas il raisonne.

Et puis il y a le problème du "gap modalité". Le texte est presque parfait : 92,1 % de précision. L’audio ? 78,4 %. L’image ? 89,4 %. La vidéo ? 63,2 % sur les longs clips. Quand un modèle doit faire une décision en combinant tout ça, il se fie davantage au texte. L’audio et la vidéo deviennent des décorations. Pas des sources d’information égales.

Comment les entreprises les utilisent - et pourquoi elles échouent

Le marché des IA multimodales a atteint 3,8 milliards de dollars en septembre 2024. Mais l’adoption réelle est lente. Seulement 17 % des entreprises les utilisent, selon Gartner. Pourquoi ?

  • Les projets prennent en moyenne 14,3 semaines à être mis en place.
  • 68 % des entreprises trouvent la documentation "inadéquate".
  • Sur GitHub, 78 % des commentaires négatifs parlent de synchronisation audio-visuelle.
  • Un développeur a passé 3 semaines à aligner les dimensions d’embeddings - juste pour que ça marche.

Les secteurs qui avancent ? La santé (29 % d’adoption), la fabrication (34 %), et l’analyse vidéo (42,7 % du marché). Les entreprises qui réussissent utilisent le transfert d’apprentissage : elles prennent un modèle pré-entraîné comme VATT, et le fine-tunent sur 1 200 vidéos médicales. Résultat ? 85 % de précision. Sans ça, il faudrait 15 000 exemples - un coût impossible.

Les réglementations freinent aussi. Le RGPD ajoute 18 à 22 % au coût des projets. Et avec l’entrée en vigueur de la loi européenne sur l’IA en décembre 2025, 37 % des entreprises en Europe ont gelé leurs projets.

Un robot en argile avec quatre capteurs alimente un noyau Transformer, entouré de vidéos défectueuses et d'un écran clair marqué VATT-v2.

Le futur proche : ce qui vient

Les avancées récentes sont prometteuses. VATT-v2 a introduit le "modality dropout" : pendant l’entraînement, le modèle apprend à fonctionner même si un mode est manquant (ex : pas d’audio). Résultat ? +22,8 % de robustesse. Microsoft a proposé l’"alignment distillation" : un modèle plus grand enseigne à un plus petit comment mieux aligner les embeddings. Résultat ? Réduction de 37,4 % des écarts de dimension.

À NeurIPS 2024, 87 articles sur le multimodal ont été publiés - contre 42 en 2023. Les nouvelles directions ?

  • "Foundation model surgery" : adapter un modèle de texte pré-entraîné pour le vision ou l’audio, avec 90 % moins de données.
  • "Embodied multimodal learning" : intégrer des données de mouvement, de capteurs, de robotique - pour que l’IA comprenne non seulement ce qu’elle voit, mais aussi ce qu’elle "fait".

À l’horizon 2026, Forrester prédit que 68 % des systèmes d’analyse vidéo utiliseront des transformateurs multimodaux. Mais les chercheurs de Stanford mettent en garde : sans une avancée architecturale majeure, le fossé entre les modalités restera. Et tant que l’audio sera 14 points en dessous du texte, on ne pourra pas dire que l’IA "comprend" vraiment le monde.

Comment commencer - si vous voulez essayer

Si vous êtes développeur ou chercheur, voici ce qu’il faut faire :

  1. Commencez avec un modèle pré-entraîné : VATT ou CLIP sur Hugging Face.
  2. Prétraitez vos données : texte avec BERT, images en 224x224, audio en spectrogrammes Mel à 16 kHz.
  3. Utilisez l’InfoNCE loss avec une température de 0,1.
  4. Entraînez sur un seul GPU A100 pour l’inférence - 8 A100 pour l’entraînement.
  5. Testez sur une tâche simple : "retrouver une vidéo à partir d’une phrase".

Et ne cherchez pas à tout aligner en même temps. Commencez par deux modalités. Texte + image. Ensuite, ajoutez l’audio. La vidéo viendra après. L’alignement, c’est un marathon. Pas un sprint.

Qu’est-ce qu’un embedding multimodal ?

Un embedding multimodal est une représentation numérique - un vecteur de nombres - qui capture le sens d’un élément (texte, image, son, vidéo) dans un espace commun. Par exemple, le mot "chien" et une image d’un chien auront des embeddings très proches, même s’ils viennent de types de données différents. C’est ce qui permet à une IA de trouver une vidéo d’un chien en répondant à une question écrite.

Pourquoi VATT est-il important ?

VATT est l’un des premiers modèles à traiter texte, image, audio et vidéo dans un seul Transformer, sans séparer les flux. Il a montré qu’on pouvait obtenir des performances élevées avec une architecture plus simple et plus efficace. Il a ouvert la voie à la plupart des modèles modernes, et reste la référence sur les benchmarks de recherche vidéo-texte.

Est-ce que je peux l’utiliser sans super-ordinateur ?

Oui, mais seulement pour l’inférence. Pour faire tourner un modèle comme VATT sur une vidéo en temps réel, un seul GPU NVIDIA A100 suffit. Mais pour l’entraîner ou le fine-tuner sur vos propres données, vous avez besoin de 8 A100 et de 512 Go de RAM. Pour commencer, utilisez un modèle déjà entraîné sur Hugging Face - vous n’aurez pas besoin de tout réapprendre.

Quelle est la différence entre CLIP et VATT ?

CLIP, développé par OpenAI, aligne uniquement texte et image. VATT, créé par Google, traite quatre modalités : texte, image, audio et vidéo. VATT est plus complexe, plus lourd, mais aussi plus puissant pour les applications qui nécessitent du son ou du mouvement. CLIP reste plus léger et plus utilisé pour les applications simples comme la recherche d’images par texte.

Pourquoi l’audio est-il si difficile à intégrer ?

L’audio est bruité, variable, et souvent ambigu. Une même phrase peut être prononcée avec des accents, des émotions, ou des bruits de fond différents. Les modèles ne voient pas les mots comme nous - ils voient des formes de fréquence. Et ces formes sont beaucoup plus floues que les pixels d’une image ou les mots d’un texte. Même les meilleurs systèmes d’ASR (reconnaissance vocale) ont un taux d’erreur de 17,6 %, contre 7,9 % pour la reconnaissance de texte.

8 Commentaires

Elodie Trinh

Elodie Trinh

C’est fou comment un chien et le mot "chien" finissent par se ressembler dans l’espace vectoriel… J’ai testé CLIP avec une photo de mon chat en pyjama et il a trouvé "nuit paisible" comme meilleure correspondance. J’ai ri aux larmes. 😂

Andre Neves

Andre Neves

Vous parlez de "embeddings" comme si c’était de la magie, mais vous oubliez que c’est juste une approximation statistique. Le vrai problème, c’est que ces modèles ne comprennent PAS la sémantique - ils font du pattern-matching avec 10^9 paramètres. Et vous, vous vous extasiez devant un modèle qui confond "piano" et "clavier" parce qu’ils apparaissent souvent ensemble. C’est de la science, ou du bricolage ? 🤔

Viviane Gervasio

Viviane Gervasio

ATTENTION. TOUT ÇA EST CONTRÔLÉ PAR LES GRANDES TECH. VATT ? C’EST UN NOM D’AGENCE DE SPYING. Les embeddings ? Des traces numériques pour vous classifier avant même que vous parliez. Ils apprennent à associer votre voix à vos émotions… et après, c’est qui qui décide si vous êtes "fiable" ? La CIA ? Google ? Je vous le demande : qui a accès à vos spectrogrammes ? 🕵️‍♀️

Helene Larkin

Helene Larkin

Le gap modalité est réel, mais c’est surtout un problème de données. L’audio est sous-représenté dans les jeux de données d’entraînement. Si on avait 10 fois plus d’exemples d’audio annotés avec précision, les performances grimperaient de 20 % minimum. C’est une question d’effort, pas d’architecture.

Antoine Grattepanche

Antoine Grattepanche

Je veux bien croire que VATT est plus efficace, mais franchement, qui a le budget pour entraîner ça sur 8 A100 ? Moi j’ai un MacBook Air et une pile de vidéos de ma grand-mère qui parle en créole. J’ai essayé d’aligner son accent avec du texte… j’ai eu 37 % de réussite. Et j’ai adoré. Parce que c’est pas parfait, mais c’est humain. Et c’est ça, le vrai progrès : pas la précision, mais la possibilité.

laetitia betton

laetitia betton

La notion de "modality dropout" est fascinante - elle évoque une forme de robustesse émergente qui rappelle les mécanismes de compensation neurologique chez les humains. En d’autres termes, le modèle développe une forme d’adaptabilité contextuelle qui transcende la simple fusion de modalités. Cela suggère que les architectures unifiées pourraient, à terme, induire des représentations plus proches de la cognition intégrée. C’est un tournant conceptuel majeur, et non seulement technique.

Therese Sandfeldt

Therese Sandfeldt

Je trouve ça tellement beau comment une image de chien et le mot "chien" se retrouvent ensemble… comme si l’IA avait un peu d’âme. ❤️ Merci pour ce texte, j’ai appris plein de choses sans me sentir bête. C’est rare.

Emmanuel Soh

Emmanuel Soh

Je viens du Cameroun. Ici, on a des vidéos de mariages où tout le monde chante, danse, pleure, crie… mais les IA ne comprennent rien. Elles voient des couleurs, entendent du bruit, mais pas la joie. Pas la douleur. Pas la culture. Vous parlez de 89,7 % de précision… mais ça ne compte pas si ça ne voit pas l’humain.

Écrire un commentaire