LLM
Definicja
LLM (Large Language Model, czyli duży model językowy) to model uczony na dużych zbiorach tekstu, który przewiduje i generuje kolejne fragmenty tekstu. LLM działa na wzorcach językowych i statystyce, a nie na „wiedzy” w ludzkim sensie. To pojęcie o modelu, a nie o konkretnej aplikacji czy produkcie.
Co to w zasadzie jest?
- To „silnik do pracy z tekstem”, który dopisuje kolejne słowa na podstawie kontekstu.
- Nie sprawdza faktów sam z siebie, dlatego może popełniać błędy.
- Działa w ramach okna kontekstowego, więc widzi tylko część rozmowy lub dokumentu.
- Dobre polecenie i źródła znacząco poprawiają jakość odpowiedzi.
- W firmie LLM jest wsparciem, a nie samodzielnym decydentem.
Praktyczne zastosowania (konkretne scenariusze)
Scenariusz 1: Szybkie streszczenie raportu
- Cel: szybkie streszczenie raportu.
- Wejście: raport PDF.
- Kroki: wklej treść → poproś o 5 punktów → sprawdź kluczowe liczby.
- Rezultat: zwięzłe podsumowanie.
- Zabezpieczenie: weryfikacja przez osobę merytoryczną.
Scenariusz 2: Szkic odpowiedzi do klienta
- Cel: szkic odpowiedzi do klienta.
- Wejście: zapytanie + polityka firmy.
- Kroki: polecenie → odpowiedź → korekta tonu.
- Rezultat: gotowy szkic.
- Zabezpieczenie: kontrola zgodności z polityką.
Scenariusz 3: Opis produktu na WWW
- Cel: opis produktu na WWW.
- Wejście: specyfikacja + USP.
- Kroki: prompt → wersja języka prostego → redakcja.
- Rezultat: czytelny opis.
- Zabezpieczenie: review brandowy.
Typowe błędy i pułapki
- Traktowanie LLM jak wyszukiwarki faktów.
- Zbyt ogólne polecenia bez kontekstu.
- Publikacja treści bez weryfikacji.
Ryzyka i jak je ograniczać
Ryzyko 1: Halucynacje
- Ryzyko: Halucynacje.
- Jak ograniczać: weryfikacja faktów i źródeł.
Ryzyko 2: Dane osobowe
- Ryzyko: Dane osobowe.
- Jak ograniczać: anonimizacja i polityki RODO.
Ryzyko 3: Stronniczość
- Ryzyko: Stronniczość.
- Jak ograniczać: testy na różnych przykładach.
Ryzyko 4: Prompt injection
- Ryzyko: Prompt injection.
- Jak ograniczać: filtracja wejść i guardrails.
Ryzyko 5: Vendor lock-in
- Ryzyko: Vendor lock-in.
- Jak ograniczać: plan migracji i standardy danych.
Checklista “zanim użyjesz”
- Czy masz aktualne źródła do weryfikacji?
- Czy usunąłeś dane wrażliwe?
- Czy wynik przejdzie review człowieka?
- Czy wiesz, gdzie LLM może się mylić?
- Czy logujesz zapytania i wersje?
Diagram
flowchart LR
A[Tekst]
B[Tokeny]
C[LLM]
D[Przewidywanie kolejnych tokenów]
E[Odpowiedź]
A --> B --> C --> D --> E
Diagram pokazuje podstawowy mechanizm działania dużego modelu językowego.
Dalsza lektura
- NIST AI RMF 1.0
- ISO/IEC 22989:2022 Artificial intelligence — Concepts and terminology
- OWASP LLM Top 10
Miejsce w mapie
- LLM → używa: Token
- LLM → ograniczany przez: Okno kontekstowe
- LLM → wspierany przez: RAG