Gelogen

Frei erfundene Fälle inklusive Aktenzeichen – auch das kann ChatGPT, wie ein New Yorker Anwalt jetzt erfahren musste. Der Versuch eines Anwalts in New York, den Chatbot ChatGPT bei der Recherche für einen Fall zu verwenden, ist komplett schiefgegangen. Ein von ihm eingereichter Antrag enthielt Verweise auf Fälle wie "Petersen gegen Iran Air" oder "Martinez gegen Delta Airlines". Dem Anwalt zufolge wurden die angeblichen Urteile und Aktenzeichen dazu von ChatGPT ausgegeben. In dem Fall reichte ein Passagier Klage gegen die Fluggesellschaft Avianca ein, weil er von einem Servierwagen am Knie verletzt worden sei. Die Airline beantragte, die Klage abzuweisen. In dem Gegenantrag im März verwies die Anwaltskanzlei des Klägers auf verschiedene frühere Entscheidungen. Bei sechs davon konnten die Avianca-Anwälte jedoch keine Belege für deren Existenz finden. Der Klägeranwalt gab nun in einer Stellungnahme unter Eid an, er habe das Gericht nicht täuschen wollen, sondern sich nur auf Zusicherungen von ChatGPT verlassen, dass die Fälle authentisch seien. Da zeigt sich schon heute: der Chatbot ist zum Verwechseln menschlich, Lügen gehört auch schon dazu. aw

ABZ-Stellenmarkt

Relevante Stellenangebote
Seilbaggerfahrer (m/w/d), Jettingen-Scheppach  ansehen
Projektleitung (m/w/d) , Heilbronn  ansehen
Gerüstbauer – auch als Quereinsteiger , Ochtendung  ansehen
Alle Stellenangebote ansehen

Ausgewählte Unternehmen
LLVZ - Leistungs- und Lieferverzeichnis

Die Anbieterprofile sind ein Angebot von llvz.de

ABZ-Redaktions-Newsletter

Freitags die aktuellen Baunachrichten direkt aus der Redaktion.

Jetzt bestellen