Halucynacja to wynik wygenerowany przez LLM, który wydaje się spójny, dobrze napisany i okazuje się faktycznie nieprawdziwy — zmyślone liczby, nieistniejące cytaty, wymyślone artykuły prawa, funkcje API, których nigdy nie było. Model nie „kłamie” w ludzkim sensie: przewiduje najbardziej prawdopodobny dalszy ciąg tekstu na podstawie swojego treningu, a gdy brakuje mu informacji, ekstrapoluje w próżni. To strukturalne zachowanie, a nie jednorazowy błąd.
Czynniki, które wzmacniają halucynacje: pytania wykraczające poza zakres zbioru treningowego, niejednoznaczne prompty, okno kontekstu bez informacji faktograficznych, prośby o precyzyjne cytaty (daty, liczby, źródła), mniejsze lub starsze modele. Skuteczne techniki łagodzenia: zakotwiczenie modelu poprzez RAG z obowiązkowymi cytatami, użycie function calling do weryfikacji faktów przez prawdziwe API, jawne instruowanie modelu, aby mówił „nie wiem” w promptcie, i programowa walidacja krytycznych wyników.
Właściwe podejście w produkcji: nigdy nie ufać ślepo wynikom LLM w tematach obarczonych ryzykiem (prawnych, medycznych, finansowych, kontraktowych). Wdraża się workflow walidacyjny: obowiązkowe cytaty + weryfikowalne źródła, walidacja człowieka w przypadkach wrażliwych, monitoring wskaźnika halucynacji na podstawie referencyjnego datasetu. Dla kontrolowanego wdrożenia w sektorze prawnym, zdrowiu lub finansach dobrze zbudowany RAG + walidacja człowieka pozostają w 2026 roku obowiązkowe.
5 środków, które naprawdę ograniczają halucynacje
- RAG z wstrzykiwaniem odpowiednich fragmentów i obowiązkowym cytowaniem źródeł.
- Function calling do weryfikacji faktów przez prawdziwe API (CRM, baza produktów).
- Jawny prompt: „jeśli informacji nie ma w kontekście, odpowiedz 'nie wiem'”.
- Programowa walidacja wyniku (regex, JSON schema, krzyżowe wywołania weryfikacyjne).
- Ciągły monitoring: dataset referencyjny + wskaźnik halucynacji mierzony w czasie.
