Strona https://www.damiencharlotin.com/hallucinations/ to publiczna baza danych prowadzona przez Damiena Charlotina, badacza zajmującego się analizą wykorzystania sztucznej inteligencji w praktyce prawniczej. Skupia się ona na przypadkach, w których generatywne modele językowe (LLM), takie jak ChatGPT, Claude czy Gemini, wygenerowały fałszywe treści — najczęściej nieistniejące cytaty z orzecznictwa — które następnie zostały włączone do dokumentów sądowych.

Kluczowe informacje o bazie danych:

  • Zakres: Obejmuje przypadki, w których sądy lub trybunały odniosły się do użycia AI w sposób istotny, zwłaszcza gdy doszło do tzw. „halucynacji” AI, czyli generowania nieprawdziwych informacji.
  • Zawartość: Każdy wpis zawiera szczegółowe informacje, takie jak: nazwa sprawy, jurysdykcja, data, strona korzystająca z AI, użyte narzędzie AI, charakter halucynacji oraz wynik sprawy lub nałożone sankcje.
  • Przykłady:
    • W sprawie Ayinde v. Haringey & Al-Haroun v. QNB (UK, 6 czerwca 2025 r.) prawnicy przedstawili sfabrykowane cytaty, w tym jeden przypisany samej sędzi. Choć nie uznano tego za obrazę sądu, sprawę skierowano do odpowiednich organów zawodowych.(damiencharlotin.com)
    • W sprawie Mid Cent. Operating Eng’rs Health v. Hoosiervac (USA, 28 maja 2025 r.) prawnik został ukarany grzywną w wysokości 6000 USD za przedstawienie trzech nieistniejących cytatów, wygenerowanych przez AI.(damiencharlotin.com)
  • Dostępność: Baza danych jest dostępna publicznie i można ją pobrać w formacie CSV, co umożliwia dalszą analizę i badania.

Znaczenie dla praktyki prawniczej:

Baza danych Charlotina podkreśla rosnące wyzwania związane z wykorzystaniem AI w prawie. Choć narzędzia AI mogą wspierać pracę prawników, ich niekontrolowane użycie może prowadzić do poważnych błędów, w tym przedstawiania nieistniejących precedensów. W wielu przypadkach sądy zaczęły wymagać od prawników ujawniania użycia AI w przygotowywaniu dokumentów oraz potwierdzania autentyczności przedstawianych informacji.

Strona Charlotina służy jako ostrzeżenie i przypomnienie o konieczności zachowania ostrożności przy korzystaniu z narzędzi AI w praktyce prawniczej. Dla badaczy i praktyków prawa stanowi cenne źródło informacji o aktualnych trendach i potencjalnych pułapkach związanych z technologią AI.

Halucynacje AI w sądach – Baza spraw z fałszywymi cytatami wygenerowanymi przez ChatGPT i inne LLM by
Halucynacje AI w sądach – Baza spraw z fałszywymi cytatami wygenerowanymi przez ChatGPT i inne LLM

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *