Czy kiedykolwiek marzyłeś o asystencie, który zna Twoją firmę, produkty i usługi na wylot? Kimś, kto jest dostępny 24/7, nigdy się nie męczy i odpowiada na pytania klientów z precyzją chirurga? Brzmi jak science fiction? Już nie. Dzięki narzędziom takim jak n8n, modelom językowym (LLM) i wektorowym bazom danych, możesz zbudować takiego cyfrowego pomocnika samodzielnie. I wcale nie jest to tak skomplikowane, jak się wydaje!
W tym wpisie pokażę Ci, jak stworzyć prosty, ale potężny system Q&A (Pytania i Odpowiedzi) w oparciu o własne dane, na przykład treści z Twojej strony na WordPressie. Zbudujemy pipeline, który pozwoli Twojemu AI czerpać wiedzę bezpośrednio z Twoich zasobów. Koniec z halucynacjami i wymyślonymi odpowiedziami. Zaczynamy przygodę z architekturą RAG (Retrieval-Augmented Generation) w praktycznym, „niskokodowym” wydaniu.
Spis treści
- Czym jest RAG i dlaczego to takie fajne?
- Komponenty naszego asystenta AI: Niezbędnik automatyzatora
- Budujemy pipeline krok po kroku: od danych do odpowiedzi
- Praktyczny scenariusz: Asystent Q&A dla Twoich usług
- Co dalej? Podsumowanie i kolejne kroki

Czym jest RAG i dlaczego to takie fajne?
Zanim zanurzymy się w techniczne detale, wyjaśnijmy sobie kluczowe pojęcie: RAG, czyli Retrieval-Augmented Generation. Wyobraź sobie, że duży model językowy (jak GPT-4) to niezwykle inteligentny student, który przeczytał prawie cały internet. Ma ogromną wiedzę ogólną, ale nie ma pojęcia o specyfice Twojej najnowszej oferty produktowej, cenniku czy wpisach na blogu. Próba zapytania go o to jest jak pytanie przypadkowej osoby na ulicy o Twoje finanse.
Krótka historia o dwóch światach: LLM i Twoja wiedza
Standardowy LLM opiera się wyłącznie na swojej „wytrenowanej” pamięci. RAG zmienia zasady gry. Zamiast kazać modelowi „zgadywać”, dajemy mu ściągawkę. Proces wygląda tak: gdy użytkownik zadaje pytanie, system najpierw przeszukuje Twoją prywatną bazę wiedzy (np. stronę na WordPressie) w poszukiwaniu najbardziej pasujących fragmentów, a następnie przekazuje je modelowi LLM wraz z oryginalnym pytaniem i prostym poleceniem: „Odpowiedz na to pytanie, korzystając wyłącznie z tych informacji”.
RAG pozwala LLM-om odpowiadać na pytania w oparciu o Twoje własne, aktualne dane, a nie tylko na podstawie ich ogólnej, często nieaktualnej wiedzy. To game-changer dla personalizowanych asystentów AI.
Komponenty naszego asystenta AI: Niezbędnik automatyzatora
Do zbudowania naszego systemu będziemy potrzebować kilku klocków, które połączymy w sprawnie działającą maszynę. Naszym placem budowy będzie n8n – fantastyczne narzędzie do automatyzacji procesów.
Elementy naszej układanki
- n8n: To nasz dyrygent. Platforma, która połączy wszystkie pozostałe elementy w jeden spójny workflow. To w n8n zaprojektujemy cały proces od A do Z, bez pisania skomplikowanego kodu.
- Źródło wiedzy (np. WordPress): To Twoja baza danych, „księga”, z której AI będzie się uczyć. Może to być strona na WP, baza w Notion, folder z plikami PDF czy nawet arkusz Google. Ważne, żebyśmy mogli programowo uzyskać dostęp do tych treści.
- Model Językowy (LLM): Mózg operacji, odpowiedzialny za rozumienie języka i generowanie odpowiedzi. Skorzystamy z API od dostawców takich jak OpenAI, Anthropic (Claude) czy Google (Gemini).
- Wektorowa Baza Danych: To magiczna biblioteka. Przechowuje Twoje treści w postaci wektorów – matematycznych reprezentacji znaczenia tekstu. Dzięki niej możemy błyskawicznie znaleźć fragmenty, które są semantycznie podobne do zadanego pytania. Przykłady to Pinecone, ChromaDB, a nawet wbudowane w n8n rozwiązania in-memory.
Budujemy nasz pipeline krok po kroku
Nasz proces będzie składał się z dwóch głównych etapów: jednorazowego „karmienia” bazy wiedzą (ingest) oraz bieżącego odpowiadania na zapytania (query). Oba te procesy z łatwością zbudujesz w n8n.
Etap 1: Ingest (Pobieranie i przygotowanie danych)
To proces, który wykonujemy, aby załadować naszą wiedzę do wektorowej bazy danych. W n8n workflow wyglądałby mniej więcej tak:
- Pobierz dane: Użyj noda HTTP Request, aby połączyć się z API WordPressa i pobrać treść wszystkich stron lub wpisów.
- Podziel tekst (Chunking): Długie teksty dzielimy na mniejsze, sensowne fragmenty (tzw. „chunki”). To ważne, bo modele mają ograniczone okno kontekstowe.
- Wygeneruj embeddingi: Każdy „chunk” wysyłamy do modelu embeddingowego (np. `text-embedding-3-small` od OpenAI), który zwraca wektor liczbowy.
- Zapisz w bazie: Zapisujemy oryginalny fragment tekstu wraz z jego wektorową reprezentacją w naszej wektorowej bazie danych.
Etap 2: Query (Czas na zadawanie pytań!)
To jest workflow, który będzie uruchamiany za każdym razem, gdy użytkownik zada pytanie. To serce naszego asystenta.
Proces zapytania to elegancki taniec danych: pytanie → wektor → wyszukiwanie podobieństwa → kontekst → odpowiedź LLM. Wszystko w ułamku sekundy.
Kroki w n8n:
- Odbierz pytanie: Zaczynamy od webhooka lub formularza, który przyjmuje pytanie od użytkownika.
- Wygeneruj embedding dla pytania: Pytanie użytkownika również zamieniamy na wektor, używając tego samego modelu co w etapie „ingest”.
- Przeszukaj wektorową bazę danych: Wysyłamy wektor pytania do bazy i prosimy o zwrócenie kilku (np. 3-5) najbardziej podobnych wektorowo fragmentów tekstu.
- Zbuduj prompt dla LLM: Tworzymy specjalne polecenie (prompt), które zawiera znalezione fragmenty (kontekst) i oryginalne pytanie użytkownika. Np.: „Jesteś pomocnym asystentem. Odpowiedz na pytanie użytkownika, bazując wyłącznie na poniższym kontekście. Kontekst: […]. Pytanie: […]”.
- Wyślij do LLM i zwróć odpowiedź: Wysyłamy gotowy prompt do modelu językowego (np. GPT-4o) i zwracamy jego odpowiedź użytkownikowi.
I to wszystko! Właśnie zbudowałeś fundament pod inteligentnego asystenta, który bazuje na Twojej unikalnej wiedzy. Możesz go podłączyć do chatbota na stronie, zintegrować ze Slackiem dla swojego zespołu lub stworzyć narzędzie do szybkiego przeszukiwania wewnętrznej dokumentacji.
Automatyzacja i AI otwierają niesamowite możliwości. Budowa takiego systemu, która jeszcze niedawno wymagała zespołu specjalistów, dziś jest na wyciągnięcie ręki dzięki narzędziom no-code/low-code jak n8n. Jeśli ten temat Cię interesuje i chciałbyś zobaczyć, jak jeszcze można wykorzystać AI w biznesie, zapraszam Cię do zapoznania się z moimi projektami na michalzareba.pl lub bezpośredniego kontaktu!

Dodaj komentarz