Przejdź do treści
Infrastruktura & Technologia

RAG i Document Intelligence: Jak AI rozumie Twoje dokumenty

RAG udostępnia dokumenty firmowe dla AI – bez trenowania, bez wycieku danych. Plus: anonimizacja PII i redakcja umów.

Mansoor Ahmed
Mansoor Ahmed
Head of Engineering 10 min czytania

Kluczowe pytanie: Czy AI może zrozumieć nasze własne dokumenty?

„Czy możemy pozwolić AI odpowiadać na podstawie naszych dokumentów?” To pytanie pojawia się w praktycznie każdej firmie. Odpowiedź brzmi: tak, dzięki RAG (Retrieval Augmented Generation). Zasada jest prosta: Twoje dokumenty pozostają w Twojej infrastrukturze. Model językowy nie jest trenowany na Twoich danych. Zamiast tego istotne fragmenty dokumentów są przekazywane modelowi jako kontekst przy każdym zapytaniu. Model odpowiada na podstawie tych fragmentów, ze wskazaniem źródeł.

Żaden wyciek danych do podmiotów trzecich. Żadne dotrenowywanie. Żadna utrata kontroli. A mimo to odpowiedzi w języku naturalnym oparte bezpośrednio na wiedzy Twojej organizacji.

RAG jest dziś standardowym podejściem do łączenia modeli językowych z wiedzą specyficzną dla organizacji. Ten artykuł wyjaśnia, jak działa RAG, kiedy jest właściwym wyborem i dlaczego Document Intelligence wykracza daleko poza lepsze wyszukiwanie – obejmując anonimizację PII, redakcję umów i wykrywanie podpisów.

Jak działa RAG

RAG składa się z dwóch faz: indeksowania dokumentów i odpowiadania na zapytania. Przepływ można zilustrować schematem:

Dokumenty → Chunking → Embedding → Wektorowa baza danych

Zapytanie użytkownika → Query Embedding → Wyszukiwanie podobieństw

                              Istotne fragmenty + Zapytanie → LLM → Odpowiedź ze źródłem

Faza 1: Indeksowanie. Twoje dokumenty – pliki PDF, dokumenty Word, strony HTML, zeskanowane materiały – są dzielone na sensowne fragmenty (chunking). Każdy fragment jest przekształcany przez model embeddingowy w wektor matematyczny. Te wektory są przechowywane w wektorowej bazie danych. Wektor reprezentuje znaczenie fragmentu, nie jego dosłowne brzmienie. „Regulamin pracy zdalnej” i „Zasady telepracy” znajdują się blisko siebie w przestrzeni wektorowej, mimo że używają różnych słów.

Faza 2: Zapytanie. Gdy użytkownik zadaje pytanie, jest ono również przekształcane w wektor. Wektorowa baza danych znajduje fragmenty semantycznie najbliższe pytaniu – nie na podstawie słów kluczowych, lecz przez obliczenie podobieństwa. Te istotne fragmenty są przekazywane modelowi językowemu razem z oryginalnym pytaniem. Model generuje odpowiedź na podstawie tych konkretnych źródeł.

Rezultat: odpowiedź w języku naturalnym oparta na Twoich dokumentach, z odniesieniami do fragmentów źródłowych, z których pochodzi informacja.

Decydująca jest jakość indeksowania. Zbyt duże chunki rozmywają trafność. Zbyt małe chunki tracą kontekst. Strategia chunkingu – rozmiar, nakładanie się, wzbogacanie metadanymi – w dużej mierze determinuje jakość odpowiedzi. Dobry potok RAG to nie sama technologia, lecz jej konfiguracja pod kątem Twojego specyficznego krajobrazu dokumentów.

RAG vs. Fine-Tuning vs. Prompting

RAG nie jest jedynym sposobem przekazania modelowi wiedzy dziedzinowej. Istnieją trzy podstawowe podejścia, różniące się nakładem pracy, kosztami i przydatnością:

PodejścieCo się dziejeKiedy stosowaćKosztAktualność
PromptingKontekst podawany bezpośrednio w prompcieMałe zbiory danychNiskiNatychmiast
RAGIstotne dokumenty znajdowane automatycznieDuże bazy wiedzyŚredniRe-indeksacja
Fine-TuningModel dotrenowywanyJęzyk specjalistyczny/domenaWysokiTylko przez re-trening

Prompting działa, gdy istotny kontekst mieści się w oknie kontekstowym modelu – zazwyczaj kilkadziesiąt stron. Dla pojedynczego porozumienia zakładowego to wystarczające. Dla bazy wiedzy z setkami dokumentów – nie.

RAG skaluje się na duże zbiory dokumentów. Wektorowa baza danych może zawierać setki tysięcy fragmentów. Przy każdym zapytaniu znajdowane i przekazywane modelowi są tylko istotne fragmenty. Dokumenty można aktualizować w dowolnym momencie – wystarczy re-indeksacja. Model nie musi być ponownie trenowany.

Fine-Tuning zmienia wagi samego modelu. Jest zasadny, gdy model musi nauczyć się zupełnie nowego słownictwa branżowego – np. terminologii medycznej lub własnej nomenklatury – albo gdy wymagany jest bardzo specyficzny format odpowiedzi. Fine-Tuning jest kosztowny, pracochłonny i wymaga ponownego trenowania przy każdej aktualizacji.

Dla 90% przypadków zastosowań w firmach RAG jest właściwym podejściem. Kombinacja dużych baz wiedzy, częstych aktualizacji i potrzeby wskazywania źródeł czyni RAG standardem dla wiedzy korporacyjnej.

Document Intelligence: więcej niż wyszukiwanie

RAG odpowiada na pytania na podstawie dokumentów. Document Intelligence idzie dalej: obejmuje wszystkie metody, dzięki którym AI nie tylko czyta dokumenty, ale je rozumie, klasyfikuje i przetwarza – włącznie z ochroną informacji wrażliwych.

Trzy najważniejsze obszary zastosowań w kontekście korporacyjnym: anonimizacja PII, redakcja umów i wykrywanie podpisów.

Anonimizacja PII: pseudonimizacja z pełnym obiegiem

Dane osobowe (PII, Personally Identifiable Information) w wielu przypadkach nie mogą być przekazywane do modelu językowego. Wynagrodzenia, prawdziwe nazwiska, numery pracownicze, dane zdrowotne. RODO i wewnętrzne polityki ochrony danych wyznaczają jasne granice.

Rozwiązaniem jest pseudonimizacja z pełnym obiegiem (roundtrip). Konkretny przykład:

Dokument oryginalny: „Jan Kowalski, Dział Finansów, wynagrodzenie 18 000 zł, przystępuje do porozumienia zakładowego dotyczącego elastycznego czasu pracy.”

Po pseudonimizacji (dane wejściowe dla modelu): „Osoba_A, Dział_X, Wynagrodzenie_Y, przystępuje do porozumienia zakładowego dotyczącego elastycznego czasu pracy.”

Model językowy przetwarza zapytanie z pseudonimizowanymi danymi. W żadnym momencie nie widzi prawdziwego nazwiska, działu ani wynagrodzenia.

Po re-identyfikacji (dane wyjściowe dla użytkownika): Symbole zastępcze w wyniku są zastępowane oryginalnymi danymi. Użytkownik widzi pełną odpowiedź. Model jej nigdy nie widział.

Ten obieg odbywa się automatycznie. Dla użytkownika proces jest przezroczysty. Dla modelu dane są w każdym momencie niedostępne. Dla infrastruktury oznacza to: warstwa pseudonimizacji znajduje się między użytkownikiem a modelem i jest wymuszona technicznie – nie opcjonalnie.

Anonimizacja PII jest szczególnie istotna dla zastosowań HR, gdzie akta osobowe, listy płac czy oceny pracownicze mają być przetwarzane z wykorzystaniem AI. Bez anonimizacji takie zastosowania nie są zgodne z RODO w UE.

Redakcja umów (Redaction)

Redakcja umów wykracza poza pseudonimizację. Podczas gdy pseudonimizacja zastępuje dane i przywraca je na końcu, redakcja fizycznie usuwa treść z dokumentu – nieodwracalnie dla danego odbiorcy.

Przypadek użycia: różne działy potrzebują różnych widoków tego samego kontraktu. Dział prawny widzi pełny kontrakt. Dział zakupów widzi wersję bez klauzul odpowiedzialności. Zarząd widzi podsumowanie bez szczegółów operacyjnych.

Redakcja działa na podstawie reguł. Dla każdej kategorii dokumentu i każdej grupy odbiorców zdefiniowane jest, które sekcje są widoczne, a które zredagowane. Reguły są konfigurowane i wersjonowane w Decision Layer – nie stosowane ręcznie.

Rezultat: każda rola widzi dokładnie te informacje, które są dla niej istotne i autoryzowane. Żadna ręczna redakcja. Żadne pominięte fragmenty. Żadne wersje przypadkowo przesłane w całości.

Wykrywanie podpisów

Archiwa umów w firmach często zawierają tysiące dokumentów. Pytanie, czy dany kontrakt jest w pełni podpisany, wymaga dziś często ręcznego przeglądania strona po stronie. Przy setkach umów jest to niepraktyczne.

Document Intelligence rozwiązuje ten problem poprzez automatyczne wykrywanie podpisów. System sprawdza zeskanowane kontrakty pod kątem obecności podpisów w wyznaczonych miejscach. Brakujące podpisy są automatycznie oznaczane. Rezultat: przegląd wszystkich umów w archiwum, które nie zostały jeszcze w pełni podpisane – w minutach zamiast tygodni.

Zastosowanie wykracza poza samą detekcję. W połączeniu z potokiem RAG system może również odpowiadać na pytania takie jak: „Które umowy ramowe z okresem obowiązywania powyżej 3 lat zostały przedłużone w ostatnim kwartale bez podpisu zarządu?”

Przykład z praktyki: Asystent porozumień zakładowych

Konkretny scenariusz z praktyki HR. Dział kadr średniej wielkości firmy zarządza ponad 100 aktywnymi porozumieniami zakładowymi: czas pracy, praca zdalna, podróże służbowe, szkolenia, programy emerytalne, zarządzanie reintegracją, ochrona danych, korzystanie z IT i wiele innych. Każde porozumienie ma aneksy, załączniki i odniesienia do innych porozumień.

Gdy pracownik kadr musi odpowiedzieć na pytanie: „Jaka regulacja obowiązuje w zakresie pracy zdalnej dla pracowników na część etatu w produkcji?”, oznacza to dziś: znaleźć właściwe porozumienie zakładowe, zlokalizować odpowiedni fragment, sprawdzić czy istnieje aneks, porównać z układem zbiorowym, uwzględnić regulacje specyficzne dla lokalizacji. Rezultat: 30 do 45 minut poszukiwań. W razie wątpliwości zapytanie do działu prawnego. Kolejne dni oczekiwania.

Z asystentem porozumień zakładowych opartym na RAG: wszystkie porozumienia zakładowe są indeksowane, wraz z aneksami, załącznikami i odniesieniami krzyżowymi. Pracownik kadr zadaje pytanie w języku naturalnym. System znajduje istotne fragmenty z właściwych dokumentów, uwzględnia aneks z marca 2025, wskazuje na regulację specjalną dla pracowników produkcji i dostarcza odpowiedź w 10 sekund. Ze wskazaniem źródła. Z wersją regulacji.

To nie jest scenariusz teoretyczny. To standardowy przypadek użycia, od którego firmy zaczynają budowanie pierwszego potoku RAG. Nakład pracy jest umiarkowany: dostarczyć dokumenty, skonfigurować strategię chunkingu, zdefiniować prawa dostępu, przetestować. Infrastruktura – wektorowa baza danych, model embeddingowy, model językowy, potok retrieval – jest budowana raz i dostępna dla kolejnych zastosowań.

Zapewnienie jakości: Dlaczego wyniki RAG są tak dobre, jak indeksowanie

RAG nie działa sam. Najczęstsze źródła błędów w praktyce:

Zła strategia chunkingu. Zbyt duże chunki (całe rozdziały) dostarczają zbyt dużo nieistotnego kontekstu. Zbyt małe chunki (pojedyncze akapity) tracą spójność. Właściwy rozmiar chunka zależy od typu dokumentu – specyfikacja techniczna wymaga innego chunkingu niż porozumienie zakładowe.

Brakujące metadane. Bez metadanych (typ dokumentu, data obowiązywania, wersja, zakres stosowania) potok retrieval nie jest w stanie rozróżnić aktualnej i nieaktualnej regulacji. Wzbogacanie metadanymi podczas indeksowania nie jest opcjonalne – jest konieczne.

Brak kontroli dostępu. W środowisku korporacyjnym nie każdy użytkownik powinien mieć dostęp do wszystkich dokumentów. Potok RAG musi odzwierciedlać istniejącą strukturę uprawnień: dokumenty HR tylko dla HR, dane finansowe tylko dla działu finansów, komunikacja zarządu tylko dla uprawnionych osób.

Brak weryfikacji źródeł. RAG dostarcza odniesienia do źródeł. Ale czy są poprawne? Zapewnienie jakości – wyrywkowa kontrola odniesień, mechanizm zwrotny dla użytkowników, regularna ewaluacja – jest niezbędne, by wykrywać halucynacje i doskonalić potok.

To zapewnienie jakości jest częścią bieżącej eksploatacji, nie jednorazowego uruchomienia. Dokumenty się zmieniają. Nowe dochodzą. Stare tracą ważność. Potok RAG musi ewoluować – poprzez regularną re-indeksację, aktualizację metadanych i informacje zwrotne od użytkowników.

Integracja z portalem Enterprise AI

RAG nie jest systemem izolowanym. W przemyślanej architekturze potok RAG jest zintegrowany z portalem Enterprise AI. Pracownicy zadają pytania przez zunifikowany interfejs – ten sam, przez który korzystają z agentów AI.

Portal zarządza prawami dostępu: kto może odpytywać którą bazę wiedzy? Pracownicy HR widzą asystenta porozumień zakładowych. Dział prawny widzi asystenta kontraktowego. Dział zakupów widzi asystenta wytycznych dla dostawców. Każdy widzi tylko to, do czego jest uprawniony.

Połączenie RAG i agentów AI otwiera rozszerzone możliwości: agent może nie tylko odpowiedzieć na pytanie, ale na podstawie wyników RAG uruchomić działanie – na przykład wygenerować ostrzeżenie o terminie, gdy kontrakt dobiega końca, lub stworzyć listę kontrolną, gdy nowe porozumienie zakładowe wchodzi w życie.


Enterprise AI-Infrastruktur Blueprint 2026 – Seria artykułów

← PoprzedniPrzeglądNastępny →
Portal Enterprise AI: Cztery interfejsy Open Source w porównaniuPrzeglądOd chatbotów do agentów AI: MCP, A2A i systemy Multi-Agent

Wszystkie artykuły w tej serii: Enterprise AI-Infrastruktur Blueprint 2026


Chcesz udostępnić wiedzę firmową dla AI? Gosign buduje potoki RAG i rozwiązania Document Intelligence dla klientów korporacyjnych – niezależnie od modelu, z anonimizacją PII i pełną kontrolą dostępu.

Umów spotkanie. 30 minut, w których określimy, które dokumenty powinny stać się dostępne dla AI w pierwszej kolejności.

RAG Document Intelligence Anonimizacja PII Baza wiedzy Enterprise AI
Udostępnij artykuł

Najczęściej zadawane pytania

Czym jest RAG (Retrieval Augmented Generation)?

RAG to metoda, dzięki której model AI odpowiada na pytania na podstawie dokumentów firmowych – bez trenowania na tych danych. Dokumenty są indeksowane, a istotne fragmenty przekazywane modelowi przy każdym zapytaniu.

Kiedy wybrać RAG, a kiedy Fine-Tuning?

RAG w 90% przypadków biznesowych: duże bazy wiedzy, często aktualizowane dokumenty. Fine-Tuning tylko gdy model musi nauczyć się zupełnie nowego słownictwa branżowego lub wymagany jest bardzo specyficzny format odpowiedzi.

Jak działa anonimizacja PII w systemach AI?

Dane osobowe są automatycznie pseudonimizowane przed przekazaniem do modelu AI. Model nigdy nie widzi prawdziwych nazwisk, wynagrodzeń ani innych danych wrażliwych. W odpowiedzi symbole zastępcze są zastępowane oryginalnymi danymi.

Czy RAG obsługuje pliki PDF i zeskanowane dokumenty?

Tak. Nowoczesne potoki RAG obsługują PDF, DOCX, HTML oraz – dzięki OCR – również zeskanowane dokumenty. Jakość wyników zależy od jakości indeksowania.

Jaki proces powinien obsługiwać Twój pierwszy agent?

Porozmawiaj z nami o konkretnym przypadku użycia.

Zarezerwuj rozmowę