Halucynacje
Definicja
Halucynacje to sytuacja, gdy model podaje fałszywe informacje, ale robi to w sposób przekonujący.
Co to w zasadzie jest?
- Model nie „wie”, tylko przewiduje kolejne słowa.
- Może tworzyć odpowiedzi, które brzmią sensownie, ale są nieprawdziwe.
- Ryzyko rośnie przy braku źródeł i przy zbyt ogólnych poleceniach.
Praktyczne zastosowania (konkretne scenariusze)
Scenariusz 1: Odpowiedź klientowi
- Cel: odpowiedź klientowi.
- Wejście: zadanie, dane wejściowe i źródła.
- Kroki: wykonaj zadanie -> sprawdź ryzyko: błędna podstawa prawna -> zastosuj zabezpieczenie.
- Rezultat: odpowiedź mniej podatna na zmyślenia.
- Zabezpieczenie: grounding + cytaty + akceptacja.
Scenariusz 2: Opis projektu/inwestycji
- Cel: opis projektu/inwestycji.
- Wejście: zadanie, dane wejściowe i źródła.
- Kroki: wykonaj zadanie -> sprawdź ryzyko: „dopowiedzenie” liczb -> zastosuj zabezpieczenie.
- Rezultat: odpowiedź mniej podatna na zmyślenia.
- Zabezpieczenie: dane wejściowe z tabeli + weryfikacja.
Scenariusz 3: Streszczenie regulaminu
- Cel: streszczenie regulaminu.
- Wejście: zadanie, dane wejściowe i źródła.
- Kroki: wykonaj zadanie -> sprawdź ryzyko: zmiana sensu -> zastosuj zabezpieczenie.
- Rezultat: odpowiedź mniej podatna na zmyślenia.
- Zabezpieczenie: porównanie punkt po punkcie.
Typowe błędy i pułapki
- Proszenie o „przepisy” bez podania źródła.
- Brak prośby o cytaty i linki.
- Publikowanie bez weryfikacji.
Ryzyka i jak je ograniczać
Ryzyko 1: Dezinformacja
- Ryzyko: Dezinformacja.
- Jak ograniczać: fact-checking + źródła.
Ryzyko 2: Błąd formalny
- Ryzyko: Błąd formalny.
- Jak ograniczać: checklista prawna.
Ryzyko 3: Utrata zaufania
- Ryzyko: Utrata zaufania.
- Jak ograniczać: transparentność, że to szkic.
Checklista “zanim użyjesz”
- Czy odpowiedź ma źródła/cytaty?
- Czy liczby i daty są weryfikowalne?
- Czy treść przeszła review?
- Czy użyto zatwierdzonych dokumentów?
- Czy logujesz wersję i autora?
Diagram
flowchart LR
A[Brak dobrego kontekstu]
B[Model zgaduje]
C[Brzmiąca wiarygodnie odpowiedź]
D[Weryfikacja]
E[Poprawka lub odmowa]
A --> B --> C --> D --> E
Diagram pokazuje, że halucynacja pojawia się wtedy, gdy model uzupełnia brak wiedzy zgadywaniem.
Dalsza lektura
Miejsce w mapie
- Halucynacje → ogranicza: Grounding
- Halucynacje → ogranicza: RAG
- Halucynacje → kontroluje: Fact-checking