Generatywna sztuczna inteligencja (AI) ma potencjał, by zrewolucjonizować zawód prawnika, ale pełny zakres tej transformacji wciąż pozostaje niepewny. Choć modele AI, takie jak GPT-4, mogą zwiększyć wydajność pracy prawniczej, ich skłonność do „halucynacji” – wymyślania nieistniejących orzeczeń i faktów – podważa zaufanie do ich stosowania, zwłaszcza w złożonych zadaniach wymagających precyzyjnego osądu. Ten problem jest niezwykle ważny, ponieważ waga decyzji prawnych wymaga absolutnej rzetelności, a wszelkie błędy mogą mieć poważne konsekwencje dla klientów. Dlatego kluczowe jest zrozumienie, jak nowe technologie AI mogą przezwyciężyć te ograniczenia.
Nowa fala AI w prawie: modele rozumujące i RAG
Najnowsze badanie empiryczne rzuca światło na dwie przełomowe innowacje w dziedzinie AI, które mogą złagodzić wspomniane problemy:
-
Modele rozumujące (Reasoning Models): To nowa klasa modeli językowych, które, w przeciwieństwie do wcześniejszych chatbotów, są zaprojektowane do wykorzystywania dodatkowych zasobów obliczeniowych w momencie generowania odpowiedzi. Planują one swoje odpowiedzi, tworząc wewnętrzny „łańcuch rozumowania”, zanim przedstawią ostateczny wynik – podobnie jak człowiek, który najpierw przemyśli i naszkicuje odpowiedź na złożone pytanie. W badaniu wykorzystano o1-preview firmy OpenAI, pierwszy publicznie dostępny model tego typu.
-
Retrieval-Augmented Generation (RAG): To technika, która integruje generatywną AI z dostępem do zewnętrznych, autorytatywnych źródeł prawnych (np. baz danych z orzecznictwem). Zamiast polegać wyłącznie na danych treningowych, system z RAG najpierw wyszukuje relevantne dokumenty, a dopiero potem generuje odpowiedź na ich podstawie. Celem jest minimalizacja halucynacji i zwiększenie dokładności analizy. W badaniu wykorzystano narzędzie Vincent AI, które integruje RAG i zautomatyzowane podpowiedzi (prompting).
Aby ocenić wpływ tych technologii, przeprowadzono pierwsze randomizowane badanie kontrolowane, w którym 127 studentów prawa z zaawansowanych roczników miało za zadanie wykonać sześć realistycznych zadań prawniczych. Uczestników losowo przydzielono do trzech grup: jedna korzystała z Vincent AI, druga z o1-preview, a trzecia (kontrolna) nie miała dostępu do AI.
Wyniki: skok jakościowy i wzrost produktywności
Wyniki badania okazały się niezwykle obiecujące i stanowią znaczący krok naprzód w porównaniu z wcześniejszymi analizami starszych modeli AI (jak GPT-4):
-
Znacząca poprawa jakości: Oba narzędzia AI znacząco podniosły jakość pracy prawniczej w czterech z sześciu testowanych zadań. Model o1-preview wykazał większy i bardziej statystycznie istotny wzrost jakości niż Vincent AI. Co ważne, poprawa nie dotyczyła tylko klarowności, organizacji i profesjonalizmu, ale w przypadku o1-preview również głębi i logiki analizy prawnej w trzech z sześciu zadań. To sugeruje, że modele rozumujące stanowią różnicę nie tylko stopnia, ale i rodzaju w stosunku do wcześniejszych LLM.
-
Wzrost produktywności: Uczestnicy korzystający z obu narzędzi AI wykonywali zadania znacznie szybciej. Vincent AI przyniósł wzrost produktywności (mierzony jako punkty jakości na minutę pracy) o około 38% do 115%, a o1-preview o 34% do 140%, ze szczególnie silnym efektem w złożonych zadaniach, takich jak pisanie pism procesowych czy analiza skarg.
-
Problem halucynacji: Wyniki wskazują, że technologia RAG rzeczywiście redukuje halucynacje. Prace wykonane przy użyciu Vincent AI zawierały mniej zmyślonych źródeł (łącznie 3) niż te wykonane bez AI (łącznie 4). W przeciwieństwie do tego, prace z o1-preview zawierały znacznie więcej halucynacji (łącznie 11).
-
Dokładność – mieszane wyniki: Żadne z narzędzi nie doprowadziło do spójnej i statystycznie istotnej poprawy dokładności (rozumianej jako precyzja i użyteczność researchu prawnego). Co zaskakujące, Vincent AI w jednym zadaniu nawet obniżył dokładność. Jedynym wyjątkiem była poprawa dokładności dzięki o1-preview w zadaniu polegającym na analizie jednego, dostarczonego dokumentu (skargi).
-
Wpływ na różne typy zadań: Poprawa jakości była skoncentrowana w zadaniach o charakterze spornym (litigation-oriented). Żadne z narzędzi nie poprawiło jakości pracy w jedynym zadaniu o charakterze transakcyjnym (przygotowanie umowy o zachowaniu poufności – NDA).
Poniższa tabela przedstawia porównanie efektów dla wybranych zadań:
| Zadanie | Narzędzie | Wzrost jakości | Wzrost produktywności |
| Email do klienta | Vincent AI | +15,1% | +38,4% |
| o1-preview | +9,5% | +34,3% | |
| Analiza skargi | Vincent AI | +8,0% | +114,6% |
| o1-preview | +10,2% | +86,7% | |
| Pismo procesowe (perswazyjne) | Vincent AI | +8,7% | +82,1% |
| o1-preview | +20,9% | +140,5% |
Implikacje dla przyszłości zawodu prawnika
Wyniki badania mają doniosłe znaczenie. Pokazują, że zaawansowane narzędzia AI mogą nie tylko zwiększać efektywność, ale również – po raz pierwszy w sposób empirycznie udowodniony – konsekwentnie i znacząco podnosić jakość pracy prawników w realistycznych zadaniach.
Kluczowe wnioski na przyszłość:
-
Synergia technologii: Modele rozumujące (jak o1-preview) i technologia RAG (jak w Vincent AI) mają komplementarne mocne strony. RAG zapewnia dostęp do autorytatywnych źródeł, redukując halucynacje, podczas gdy modele rozumujące doskonale radzą sobie z analizą, argumentacją i syntezą informacji. Integracja tych dwóch technologii w jednym narzędziu prawniczym ma potencjał, by przynieść jeszcze większe korzyści.
-
Punkt zwrotny w rozwoju AI dla prawa: Zdolność AI do jednoczesnego wspierania dwóch kluczowych aspektów pracy prawniczej – wyszukiwania informacji i rozumowania – sugeruje, że zbliżamy się do punktu, w którym AI stanie się integralną częścią zawodu, a nie tylko pomocnym dodatkiem.
-
Potrzeba dalszych badań empirycznych: Dynamiczny rozwój AI wymaga ciągłej ewaluacji jej wpływu na praktykę prawniczą. Randomizowane badania kontrolowane, takie jak to, są najlepszą metodą rzetelnej oceny i prognozowania zmian. Kancelarie, klienci i szkoły prawnicze powinny aktywnie włączać takie testy do swoich działań.
-
Wpływ na edukację prawniczą: Szkoły prawnicze stają przed wyzwaniem przygotowania studentów do pracy w nowym środowisku technologicznym. Badania empiryczne są niezbędne, aby zrozumieć, jak i kiedy zachęcać studentów do korzystania z AI, tak aby nie hamować rozwoju ich własnych umiejętności krytycznego myślenia.
W obliczu tak szybkich zmian, kształtowanie przyszłości zawodu prawnika wymaga świadomych, opartych na danych strategiach. Wyniki tego badania to ważny krok w tym kierunku.
Pomysł na doktorat:
Tytuł roboczy doktoratu: „Synergia i kompromisy w hybrydowych systemach prawniczych AI: empiryczna ocena zintegrowanych modeli rozumujących i RAG w złożonych zadaniach prawniczych oraz ich wpływ na rozwój kompetencji eksperckich”.
Główne cele badawcze:
-
Zbadanie efektów synergicznych i multiplikatywnych wynikających z integracji modeli rozumujących i technologii RAG w jednym narzędziu AI dla prawników.
-
Pytanie badawcze: Czy zintegrowane narzędzie, które wykorzystuje RAG do wyszukiwania źródeł, a następnie model rozumujący do ich analizy i syntezy, przewyższa sumę korzyści wynikających z używania tych technologii oddzielnie, zwłaszcza w zakresie dokładności i głębi analizy prawnej?
-
-
Analiza wpływu długotrwałego korzystania z zaawansowanych narzędzi AI na rozwój krytycznych umiejętności prawniczych u studentów prawa i młodych prawników.
-
Pytanie badawcze: Czy regularne korzystanie z AI prowadzi do „atrofii” pewnych umiejętności (np. samodzielnego researchu, krytycznej oceny źródeł), czy też, przy odpowiednim ukierunkowaniu, może służyć jako narzędzie do „andragogiki wspomaganej” (AI-assisted pedagogy), przyspieszając rozwój eksperckiej intuicji?
-
-
Opracowanie i walidacja dynamicznych benchmarków do oceny narzędzi AI w prawie, które wykraczają poza statyczne testy i koncentrują się na ocenie interakcji człowiek-AI w realistycznych, wieloetapowych zadaniach prawniczych.
-
Pytanie badawcze: Jak można stworzyć wiarygodne i powtarzalne metody oceny, które mierzą nie tylko wynik pracy, ale także proces (np. zdolność prawnika do identyfikacji i korygowania błędów AI, efektywność dialogu z systemem), aby lepiej prognozować rzeczywistą użyteczność narzędzi AI w praktyce?
-
Metodologia (proponowana): Seria randomizowanych badań kontrolowanych z udziałem prawników na różnych etapach kariery. Wykorzystanie złożonych, wieloetapowych zadań prawniczych (np. symulacja prowadzenia sprawy). Analiza jakościowa i ilościowa wyników, w tym analiza logów interakcji z systemem AI. Długoterminowe badania panelowe śledzące rozwój kompetencji uczestników.
Prawnik wspierany przez AI: nowa generacja narzędzi i przyszłość zawodu by www.doktoraty.pl