RAG en 2026 : les stratégies de chunking qui font vraiment la différence
Le chunking est l'étape la moins glamour du RAG et pourtant la plus déterminante pour la qualité des réponses. Les stratégies ont énormément évolué en 2025.
Dans un pipeline RAG (Retrieval-Augmented Generation), la qualité de la réponse finale dépend à 60-70% de la qualité du retrieval. Et la qualité du retrieval dépend directement de la façon dont vous avez découpé vos documents en chunks. C'est la partie la plus sous-estimée de tout projet RAG.
Le chunking fixe : la baseline à dépasser
La méthode la plus répandue reste le découpage par nombre de tokens fixe (ex : 512 tokens avec 50 tokens d'overlap). Elle est simple, prévisible et facile à débugger. Mais elle coupe souvent au milieu d'une idée, d'un tableau ou d'une liste — ce qui dégrade la cohérence sémantique du chunk récupéré.
Le chunking sémantique
Le chunking sémantique utilise un modèle d'embedding pour détecter les ruptures thématiques dans le texte. On découpe là où la similarité cosinus entre phrases consécutives chute brusquement. Résultat : des chunks cohérents sur le fond, pas sur la forme.
En pratique, c'est 20 à 40% plus précis sur des documents techniques longs (manuels, rapports, contrats). La contrepartie : c'est plus lent à indexer et plus coûteux en embeddings.
Le chunking hiérarchique (RAPTOR, HyDE)
Des approches comme RAPTOR créent une hiérarchie de résumés : le chunk de bas niveau contient le détail, les niveaux supérieurs contiennent des résumés progressivement plus abstraits. Lors du retrieval, on interroge d'abord le niveau abstrait pour localiser le bon document, puis on descend chercher le détail.
C'est particulièrement efficace sur des bases documentaires très larges (>10k documents) où le retrieval flat devient bruité.
Recommandation pratique 2026
Pour la majorité des projets :
1. Commencer par du chunking fixe (512 tokens, overlap 10%) pour valider le pipeline
2. Passer au chunking sémantique dès que la base > 500 documents
3. Évaluer avec RAGAS (framework d'évaluation RAG) avant et après chaque changement de stratégie
Ce que beaucoup oublient : l'évaluation systématique de la qualité du retrieval. Sans métrique (recall@k, MRR), il est impossible de savoir si un changement de chunking améliore réellement les choses.
Source de référence
Towards Data Science
Passez à la pratique
Maîtrisez l'IA avec nos masterclasses.
Dès 29€ · Accès à vie · Applicable dès demain
Voir le catalogue