Fine-tuning polega na ponownym trenowaniu istniejącego LLM na konkretnym zbiorze danych, aby dopasować jego zachowanie — styl pisania, ton marki, strukturę wyjścia, branżowy żargon. Technicznie bierzemy model bazowy (Llama, Mistral lub fine-tune przez API u OpenAI), pokazujemy mu kilka tysięcy oznaczonych przykładów i dostrajamy jego wagi. Model „uczy się” reprodukować wzorzec. Różni się to od RAG, który wstrzykuje wiedzę do promptu bez modyfikowania modelu.
Dlaczego mówi się o tym mniej w 2026 niż w 2023: większość zastosowań, które chciano rozwiązać przez fine-tuning (Q&A na bazie wewnętrznej, support klienta), lepiej obsługuje dobrze zbudowany system RAG. Fine-tuning naprawdę wnosi wartość w wąskich przypadkach: reprodukcja bardzo wyrazistego stylu redakcyjnego, klasyfikacja dokumentów z autorską taksonomią o dużym wolumenie, obsługa branżowego żargonu, którego model bazowy nie opanował (medycyna specjalistyczna, prawo sektorowe). Orientacyjny koszt: 5–50 tys. € za poważny projekt, bez kosztów utrzymania.
Często zapominane wady: model fine-tuned zamraża wiedzę na dniu treningu (trzeba ponownie trenować, by zaktualizować), kosztuje więcej przy serwowaniu, może „zapominać” ogólne zdolności (catastrophic forgetting) i utrudnia debug. Zasada Zaplo: przed fine-tuningiem poważnie testujemy prompt engineering, potem RAG, potem agentowe podejście z function calling. Jeśli to wciąż nie wystarcza, dopiero wtedy rozmawiamy o fine-tuningu. Aby trafnie wybrać kierunek, zaczynamy od bezpłatnego audytu AI.
Fine-tuning vs RAG: kto wybiera co
- RAG, jeśli chcesz wstrzyknąć wiedzę (fakty, dokumenty, procedury) — 90% przypadków.
- Fine-tuning, jeśli chcesz wstrzyknąć zachowanie (styl, format, ton marki, specjalizowana klasyfikacja).
- RAG, jeśli Twoje dane często się zmieniają — fine-tuning zamraża model na dniu treningu.
- Łączenie obu jest możliwe, ale rzadko potrzebne poniżej znaczącego wolumenu.
