Le NLP (Natural Language Processing, ou TAL — Traitement Automatique du Langage) regroupe l'ensemble des techniques qui font traiter du langage humain par des machines : tokenisation, étiquetage morpho-syntaxique, NER (Named Entity Recognition), classification de texte, analyse de sentiment, extraction d'information, traduction, résumé. Discipline mature depuis 30 ans, elle a été révolutionnée par les transformers (BERT en 2018, puis les LLM modernes) qui ont absorbé la plupart des sous-tâches dans une approche unifiée.
Aujourd'hui, le NLP « classique » (avec spaCy, NLTK, transformers HuggingFace) reste pertinent dans plusieurs contextes : volumétries énormes où le coût d'un LLM serait prohibitif (analyse de millions de tweets, classification temps réel de logs), tâches très spécifiques où un modèle dédié est plus précis (NER sur entités métier après fine-tuning léger), contraintes de latence dures (< 50 ms, impossible avec un LLM), ou souveraineté stricte avec auto-hébergement. Pour 80 % des nouveaux projets, on commence néanmoins par un LLM + prompt engineering avant d'envisager une chaîne NLP custom.
Les briques de NLP toujours utilisées en production : embeddings (devenus le standard via embeddings modernes), reranking (cross-encoders pour améliorer le RAG), classification fine-tunée sur BERT/DistilBERT pour des tâches répétitives à fort volume, extraction d'entités sur dataset annoté maison. La règle Zaplo : LLM par défaut pour aller vite, NLP classique quand le volume, la latence ou le coût l'imposent. On arbitre lors d'un audit IA gratuit.
Quand préférer NLP classique à un LLM
- Volume > 10M documents/mois où le coût LLM devient prohibitif — un classifieur fine-tuné suffit.
- Latence dure < 50 ms (recherche temps réel, modération chat live) — le LLM est trop lent.
- Souveraineté stricte sans cloud externe — modèles open-source légers, entièrement maîtrisés.
- Tâche très bornée (ex: détecter une mention SIRET) — un regex + spaCy bat un LLM en simplicité.
