Sandboxing (piaskownica bezpieczeństwa)
Definicja
Sandboxing to uruchamianie narzędzi lub kodu w odizolowanym środowisku, które ma ograniczony dostęp do systemu, plików i sieci.
Co to w zasadzie jest?
Jeśli AI ma wykonywać działania (np. uruchomić skrypt), to lepiej, żeby robiła to w „bezpiecznym pudełku”, z którego nie może wyjść i narobić szkód. Piaskownica ogranicza:
- jakie pliki można czytać/pisać,
- czy jest dostęp do internetu,
- jakie komendy są dozwolone,
- ile CPU/czasu można zużyć.
Praktyczne zastosowania (konkretne scenariusze)
Scenariusz 1: Uruchamianie generatora raportu w kontenerze bez dostępu do prywatnych plików
- Cel: uruchamianie generatora raportu w kontenerze bez dostępu do prywatnych plików.
- Wejście: kod, narzędzie albo akcja AI.
- Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
- Rezultat: bezpieczniejsze wykonanie.
- Zabezpieczenie: brak dostępu do produkcji i limit zasobów.
Scenariusz 2: Testowanie skryptu na kopii danych, nie na produkcji
- Cel: testowanie skryptu na kopii danych, nie na produkcji.
- Wejście: kod, narzędzie albo akcja AI.
- Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
- Rezultat: bezpieczniejsze wykonanie.
- Zabezpieczenie: brak dostępu do produkcji i limit zasobów.
Scenariusz 3: Ograniczenie narzędzi AI do „read-only” w repo
- Cel: ograniczenie narzędzi AI do „read-only” w repo.
- Wejście: kod, narzędzie albo akcja AI.
- Kroki: uruchom w izolacji -> ogranicz uprawnienia -> sprawdź wynik.
- Rezultat: bezpieczniejsze wykonanie.
- Zabezpieczenie: brak dostępu do produkcji i limit zasobów.
Ryzyka i jak je ograniczać
Ryzyko 1: Piaskownica źle skonfigurowana (za dużo uprawnień)
- Ryzyko: piaskownica źle skonfigurowana (za dużo uprawnień).
- Jak ograniczać: zasada najmniejszych uprawnień + audyt konfiguracji.
Ryzyko 2: Fałszywe poczucie bezpieczeństwa
- Ryzyko: fałszywe poczucie bezpieczeństwa.
- Jak ograniczać: monitoring + logi + testy bezpieczeństwa.
Ryzyko 3: Utrudnienie pracy (za mocne ograniczenia)
- Ryzyko: utrudnienie pracy (za mocne ograniczenia).
- Jak ograniczać: stopniowe rozszerzanie uprawnień, ale tylko gdy konieczne.
Mapa powiązań
- Tool calling → narzędzia uruchamiaj w sandboxie, gdy to możliwe.
- SSO/IAM → kontrola kto ma prawo uruchamiać co.
- Audit trail → loguj działania w sandboxie.
- DLP → ogranicz wyciek danych z piaskownicy.
- Mini-przepływ:
Model → narzędzie → sandbox → wynik → model
Diagram
flowchart LR
A[Model]
B[Narzędzie]
C[Sandbox]
D[Wynik]
E[Log]
A --> B --> C --> D --> E
Diagram pokazuje, że narzędzie wykonywane przez AI powinno działać w odizolowanym środowisku.