1) Zasada nr 1: jedno źródło prawdy
Agent AI nie może „zgadywać”. Musi mieć jasno wskazane źródła prawdy i priorytet, gdy źródła się różnią.
Minimalny zestaw źródeł: - wytyczne marki i języka (styl, zakazy), - opisy procesów i wersji 1, - standardy zgłoszeń, priorytetów, wyjątków, - decyzje biznesowe (co jest w zakresie, co nie).
2) Struktura wiedzy
Żeby wiedza była użyteczna, powinna mieć stały format:
To ogranicza „pływanie” odpowiedzi i ułatwia aktualizacje.
- definicje (co to jest),
- zasady (co wolno / czego nie wolno),
- procedury (krok po kroku),
- szablony (do skopiowania),
- przykłady (2–3 typowe przypadki).
3) Aktualizacja i wersjonowanie
Wprowadź prosty rytm:
Jeśli agent ma publikować treści, wersjonowanie ogranicza ryzyko niespójności.
- Wersja 1: spisz minimum (nie czekaj na ideał).
- Raz w miesiącu: przegląd „co się zmieniło” (narzędzia, procesy, priorytety).
- Każda zmiana: krótki wpis „co, kiedy, dlaczego”.
4) Kontrola człowieka (human-in-the-loop)
Jeśli agent ma robić działania „na zewnątrz” (np. publikacje, odpowiedzi do klientów), ustaw standard:
To jest najprostszy sposób na jakość i bezpieczeństwo.
- agent przygotowuje szkic,
- człowiek akceptuje,
- dopiero wtedy następuje publikacja lub wysyłka.
5) Minimalne KPI jakości odpowiedzi
Żeby agent realnie pomagał, mierz:
To pozwala poprawiać wiedzę i reguły zamiast „dyskusji o wrażeniach”.
- odsetek odpowiedzi zaakceptowanych bez zmian,
- liczbę eskalacji (i powody),
- czas do pierwszej poprawnej odpowiedzi,
- tematy, w których agent „nie powinien odpowiadać” (do dopisania do zasad).