Anwalt sieht sich vor Gericht mit Gegenreaktionen konfrontiert, weil er sich zu sehr auf ChatGPT verlässt

Ein New Yorker Anwalt, Steven Schwartz von der Anwaltskanzlei Levidow, Levidow & Oberman, ist in die Kritik geraten, weil er ChatGPT, ein KI-Sprachmodell, in seine juristischen Recherchen einbezogen hat, als er eine Klage gegen Avianca Airlines bearbeitete. In dem Fall geht es um Robert Mata, der nach eigenen Angaben bei einem Flug mit der kolumbianischen Fluggesellschaft im Jahr 2019 eine Verletzung im Dienstwagen erlitten hat, wie CNN Business am 28. Mai berichtete.

Der Anwalt hat falsche Aufzeichnungen eingereicht, die er von ChatGPT erhalten hatte

Die Geschichte nahm eine unerwartete Wendung, als der Richter, der das Verfahren überwachte, Unstimmigkeiten und sachliche Fehler in den vorgelegten Unterlagen feststellte. In einer eidesstattlichen Erklärung vom 24. Mai gab Schwartz zu , ChatGPT für seine juristischen Recherchen genutzt zu haben, und sagte, er sei sich des Potenzials für falsche Informationen im Inhalt nicht bewusst. Er sagte weiter, dass dies das erste Mal sei, dass er das KI-Modell für juristische Recherchen verwende.

Die Untersuchung des Richters ergab, dass mehrere vom Anwalt vorgelegte Fälle fiktiv zu sein schienen, mit erfundenen Zitaten und ungenauen internen Zitaten. Darüber hinaus wurde festgestellt, dass einige der genannten Fälle nicht existierten, und in einem Fall wurde eine Registernummer fälschlicherweise mit einer anderen Gerichtsaussage verknüpft.

Der Anwalt drückte sein Bedauern darüber aus, dass er sich auf den KI-Chatbot verlassen habe, ohne seine Sorgfaltspflicht erfüllt zu haben. In seiner eidesstattlichen Erklärung betonte er, dass er den Einsatz generativer KI im Forschungsprozess sehr bedauere und schwor, diese Praxis nicht ohne absolute Authentizitätsprüfung zu wiederholen.

Analysten diskutieren über das Potenzial von KI, den Menschen zu ersetzen

Die Integration von ChatGPT in professionelle Arbeitsabläufe hat eine anhaltende Debatte über seine Eignung und Zuverlässigkeit ausgelöst. Da die Intelligenz von KI-Modellen wie ChatGPT immer weiter voranschreitet, bleiben Fragen zu ihrer Fähigkeit, menschliche Arbeitskräfte vollständig zu ersetzen. Syed Ghazanfer, ein Blockchain-Entwickler, erkennt den Wert von ChatGPT an, stellt jedoch seine Kommunikationsfähigkeiten als vollständigen Ersatz für menschliche Interaktion in Frage. Betonen Sie, dass Programmiersprachen entwickelt wurden, um Anforderungen zu erfüllen, die in muttersprachlichem Englisch möglicherweise nicht effektiv vermittelt werden können.

Während die KI-Technologie voranschreitet, müssen Entwickler und Praktiker gleichermaßen die schwierige Balance zwischen der Nutzung ihrer Fähigkeiten und der Gewährleistung der Genauigkeit und Gültigkeit der von ihr generierten Informationen finden. Der Fall um Steven Schwartz und seinen Einsatz von ChatGPT dient als warnendes Beispiel und unterstreicht die Bedeutung menschlicher Aufsicht und kritischer Bewertung in der juristischen Forschung und anderen beruflichen Umgebungen.

Während KI-Modelle wie ChatGPT dabei helfen können, bestimmte Aufgaben zu rationalisieren, sollten sie in Verbindung mit menschlicher Erfahrung und gründlichen Verifizierungsprozessen verwendet werden, um das Risiko von Ungenauigkeiten und falschen Informationen zu minimieren. Da sich die Grenzen der KI-Fähigkeiten erweitern, ist es für Praktiker nach wie vor unerlässlich, bei der Einbindung solcher Tools in ihre Arbeit Umsicht und Urteilsvermögen an den Tag zu legen.