Sąd we Wrocławiu oddalił pozew napisany przez AI
Coraz więcej osób – zarówno przedsiębiorców, jak i konsumentów – korzysta z narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT, w celu uzyskania szybkiej i bezpłatnej porady prawnej. Przykład sprawy rozpoznanej przez Sąd Okręgowy we Wrocławiu (sygn. akt X GC 455/25) pokazuje jednak, jak poważne konsekwencje może to mieć w praktyce.
W tej sprawie prezes spółki programistycznej, chcąc zaoszczędzić na profesjonalnej obsłudze prawnej, zlecił ChatGPT sporządzenie pozwu o odszkodowanie za nieudzielenie zamówienia. Pozew oraz dalsze pisma procesowe zostały w całości wygenerowane przez AI – a jako dowody dołączono… wydruki zapytań kierowanych do systemu. Sąd powództwo oddalił.
Dlaczego? I jakie wnioski powinny z tego wyciągnąć osoby korzystające z AI?
1. AI zmienia prawo
Z moich obserwacji wynika, że sztuczna inteligencja:
-
myli podstawy prawne, mieszając przepisy; potrafi cytować przepisy, które w rzeczywistości nie istnieją w takim brzmieniu,
-
delikatnie zmienia treść norm prawnych, aby pasowały do danej tezy,
- wymyśla orzeczenia, które faktycznie nie zostały wydane, żeby wzmocnić argumentację.
Z perspektywy praktyki prawniczej jest to szczególnie niebezpieczne. Model językowy nie weryfikuje przepisów w systemach informacji prawnej, nie sprawdza aktualności ustaw ani orzecznictwa. On jedynie generuje tekst, który pasuje do zadanego pytania.
2. AI nie rozumie prawa – tylko przewiduje słowa
Trzeba podkreślić, że częstokroć AI nie rozumie tego, co pisze, i nie weryfikuje samodzielnie prawdziwości wygenerowanych treści. To oznacza, że nawet bardzo przekonujący pozew może w rzeczywistości opierać się na fałszywych podstawach. W sądzie nie liczy się styl, lecz konkretne przepisy, fakty i dowody.
3. Treści z AI nie są dowodami
Sąd we Wrocławiu wprost wskazał, że: treści generowane przez AI nie są dowodem, a jedynie mogą jedynie służyć stronie do formułowania argumentów. W analizowanej sprawie powód twierdził, że sąd „musi” dostosować się do ustaleń AI. Był to poważny błąd procesowy, który podważył wiarygodność całego pozwu.
4. Ryzyko dla przedsiębiorców i konsumentów
Korzystanie z AI zamiast z prawnika może prowadzić do:
-
przegranych procesów, a co za tym idzie konieczności poniesienia kosztów sądowych i kosztów zastępstwa procesowego,
-
utraty wiarygodności przed sądem,
-
a w skrajnych przypadkach – odpowiedzialności odszkodowawczej.
Wnioski
Sztuczna inteligencja może być narzędziem pomocniczym, przykładowo do wstępnego uporządkowania informacji. Nie może jednak zastąpić profesjonalnej porady prawnej. Pismo procesowe to nie zbiór „ładnie brzmiących zdań”, lecz skrupulatna analiza norm i orzeczeń, które wymagają precyzyjnej subsumpcji pod dany stan faktyczny.
Jak pokazuje sprawa z Wrocławia, ślepe zaufanie AI może kosztować znacznie więcej niż zaoszczędzone honorarium na profesjonalnego prawnika.
