Jak czytać hasła
Każde hasło ma możliwie stały układ. Dzięki temu łatwiej porównać pojęcia i szybciej znaleźć potrzebny fragment.
Najprostsza ścieżka czytania
- Zacznij od Definicji.
- Potem przejdź do sekcji Co to w zasadzie jest? i do praktyki.
- Na końcu sprawdź ryzyka i pojęcia powiązane.
Gdy masz mało czasu lub energii
- przeczytaj tylko: Definicja.
- potem: Po co w praktyce albo Praktyczne zastosowania.
- na końcu: Ryzyka i Powiązane hasła.
Legenda sekcji
- Definicja – krótkie wyjaśnienie bez ocen.
- Co to w zasadzie jest? – to samo pojęcie opisane prościej.
- Po co w praktyce / Praktyczne zastosowania – kiedy i po co to pojęcie ma znaczenie.
- Typowe błędy i pułapki – najczęstsze pomyłki.
- Ryzyka i jak je ograniczać – co może pójść źle i jak temu zapobiec.
- Checklista – szybka lista do sprawdzenia przed użyciem.
- Diagram – jeden prosty diagram Mermaid i krótki opis zaczynający się od „Diagram pokazuje...”.
- Dalsza lektura – źródła, standardy i materiały do pogłębienia.
- Miejsce w mapie – relacje z innymi pojęciami.
- Powiązane hasła – linki do kolejnych haseł, które warto otworzyć.
Stały układ hasła
- Najpierw część podstawowa: definicja, proste wyjaśnienie i praktyka.
- Potem część pomocnicza: ryzyka, checklista, dalsza lektura.
- Na końcu część nawigacyjna: mapa powiązań i hasła powiązane.
Indeksy
- Pełny indeks wiki: Wiki
Lista haseł A–Z
- AB testy.
- Agent AI.
- AI Act (Akt w sprawie sztucznej inteligencji).
- AI Governance (Ład korporacyjny AI).
- AI Literacy (Kompetencje AI).
- Anonimizacja / pseudonimizacja.
- API.
- Asystent AI.
- Baza wektorowa (Vector database).
- Benchmark.
- Biblioteka promptów (szablony).
- Caching (pamięć podręczna).
- Chain-of-thought (rozumowanie krok po kroku).
- Content Credentials.
- Cytowanie źródeł.
- Dane osobowe (PII).
- Dane syntetyczne.
- Data poisoning (zatrucie danych).
- Data provenance (pochodzenie danych).
- Deepfake.
- Destylacja modelu (Model distillation).
- Determinism (deterministyczność).
- DLP.
- Dostępność cyfrowa w treściach AI.
- Dryft danych i zachowania modelu.
- Dynamiczny kontekst.
- Dzielenie na fragmenty.
- Ewaluacja.
- Fact-checking (weryfikacja faktów).
- Few-shot (z przykładami).
- Fine-tuning (dostrajanie).
- Function calling (wywoływanie funkcji).
- GenAI.
- GPAI.
- Ground truth (prawda referencyjna).
- Grounding (ugruntowanie odpowiedzi).
- Guardrails (barierki bezpieczeństwa).
- Halucynacje.
- Human-in-the-loop (człowiek w pętli).
- Hybrid search (wyszukiwanie hybrydowe).
- Idempotencja.
- Inferencja (inference).
- Instruction tuning / RLHF.
- Jailbreaking.
- Knowledge cutoff (granica wiedzy modelu).
- Konektory danych.
- Kwantyzacja (Quantization).
- Latency (opóźnienie odpowiedzi).
- LLM.
- LLM Firewall.
- LLMOps.
- Lokalizacja danych (Data Residency).
- LRM.
- Minimalizacja danych.
- Model collapse (zapaść modelu).
- Model Context Protocol (MCP).
- Model lokalny.
- Model multimodalny.
- Model zapasowy (Fallback model).
- Monitoring jakości.
- Nadmierne zaufanie (Overreliance).
- Niepewność odpowiedzi (Uncertainty).
- NLP.
- Observability (obserwowalność).
- Okno kontekstowe.
- Orkiestracja (workflow).
- Polityka treści.
- Polityka użycia AI w organizacji.
- Ponowienia z przerwą.
- Prompt.
- Prompt chaining (łańcuchowanie promptów).
- Prompt format (format promptu).
- Prompt guard (osłona promptu).
- Prompt injection.
- Prompt leakage (wyciek instrukcji).
- Prompt library (biblioteka promptów).
- Prompt routing (kierowanie zapytań).
- Prompt systemowy.
- Przepływ agentowy.
- RAG.
- Rate limiting (limitowanie zapytań).
- Red teaming.
- Redakcja danych wrażliwych (AI redaction).
- Rejestr systemów AI (AI inventory).
- Reranking (ponowne sortowanie wyników).
- Retrieval (wyszukiwanie informacji).
- RODO / DPIA.
- Rozliczanie kosztów AI (AI chargeback).
- Sandboxing (piaskownica bezpieczeństwa).
- Secrets management (zarządzanie sekretami).
- Security review (przegląd bezpieczeństwa).
- Shadow AI (Szara strefa AI).
- Small Language Model (SLM).
- SSO / IAM (zarządzanie tożsamością i dostępem).
- Stack.
- Stronniczość.
- Structured output (ustrukturyzowany wynik).
- System wieloagentowy (Multi-agent system).
- Temperatura / sampling.
- Tenant.
- Threat modeling (modelowanie zagrożeń).
- Throughput (przepustowość).
- Timeout (limit czasu).
- Token.
- Tool calling (wywoływanie narzędzi).
- Transparentność.
- Trening a inferencja.
- Vendor lock-in.
- Versioning modeli (wersjonowanie).
- Walidacja wyniku (Output validation).
- Watermarking (znakowanie treści).
- Wektoryzacja.
- Wyjaśnialność (explainability).
- Zarządzanie kosztami AI.
- Zatrucie kontekstu.
- Zero-shot (bez przykładów).
- Zgoda i prawa do danych oraz treści.
- Ślad audytowy.