Wenn die KI irrt: die Ausrutscher von ChatGpt von Microsoft und Bard von Google

Wenn die KI irrt: die Ausrutscher von ChatGpt von Microsoft und Bard von Google

Die Challenge zwischen den Suchmaschinen ist offiziell eröffnet. Aber kann Eile auch ein schlechter Ratgeber für künstliche Intelligenz sein? Einige Fehler von ChatGpt und Bard

Glücklicherweise gibt es noch immer kein unfehlbares Wesen auf dieser Erde. Sie sind ermutigt durch die Fehler, die in den letzten Tagen von den beiden am meisten gemunkelten und kommentierten künstlichen Intelligenzen, ChatGpt, gemacht wurden, die Microsoft in seine Suchmaschine integrieren wollte, Bing und Bard, die Google in Eile gezückt hat, um im wichtigsten Ganglion zu bleiben von das Netz.

WAS IST LOS

In den vergangenen Tagen präsentierte die weltweit führende Suchmaschine den Anti-ChatGPT mit einer Demo und diversen Tabs mit Beispielen, um allen zu demonstrieren, dass die KI von Mountain View nichts weniger kann als ihre Konkurrenten. Aber Bard lag beim James-Webb-Weltraumteleskop auf spektakuläre Weise falsch.

In einer der Anfragen an Bard wiesen mehrere Astronomen und Experten auf Twitter auf einen schwerwiegenden Fehler hin. Er wurde gebeten, einem Neunjährigen zu erklären, wie das James-Webb-Weltraumteleskop funktioniert, das 2021 in die Umlaufbahn geschickt wurde: «Das JWST hat die ersten Fotos von einem Planeten außerhalb unseres Sonnensystems gemacht. Diese fernen Welten werden «Exoplaneten» genannt», erklärt der pedantische Bard. Falsch. Das erste jemals aufgenommene Bild eines Exoplaneten stammt aus dem Jahr 2004 und das Very Large Telescope ist der Autor. Es folgte ein Crash an der Börse (ebenfalls rein virtuell, besser nochmal) und einige Kontroversen darüber, wie Googles Nummer 1 das Dossier bewältigte.

NICHT NUR BARD, AUCH CHATGPT „FEHLER“

Kurz gesagt, Google liegt falsch und wird von Microsoft überholt? Nicht wirklich, denn selbst die Werbung, die die Qualitäten des Super-Bing anpreist, das von der Technologie hinter ChatGpt animiert wird, würde Fehler und Ungenauigkeiten enthalten. Davon ist der Software-Ingenieur Dmitri Brereton überzeugt und zählt sie in seinem Newsletter DKB-Blog der Reihe nach auf: «Bings künstliche Intelligenz hat bei der Demonstration einige Antworten völlig falsch abgegeben. Aber niemand hat es gemerkt", schreibt er. So würden zum Beispiel völlig falsche Informationen – und das aufgrund nicht vorhandener Bewertungen – zu einem Staubsauger gefunden, der laut Suchmaschine zu laut ist, was in keiner menschlichen Bewertung bewiesen wurde.

Brereton zitiert dann eine weitere Studie, die auf der Microsoft-Website beworben wurde und Ratschläge zum Nachtleben für diejenigen enthält, die eine Reise nach Mexiko-Stadt planen. Die Liste der Alternativen ist reichhaltig und sicherlich ordentlicher als das, was wir bei Google finden würden, aber die vorgeschlagenen Restaurants bestehen die TripAdvisor-Tests nicht. Schließlich hat die KI einige Tippfehler innerhalb einer zusammenfassenden Arbeit eines Finanzdokuments gemacht: Die Nummern des Originaltextes stimmen nicht mit denen des von der künstlichen Intelligenz erzeugten Kurztextes überein. Kurz gesagt, sogar die künstliche Intelligenz ist falsch, aber die menschliche Intelligenz war sicherlich nicht in der Lage, es besser zu machen, wenn diese Fehler in das Werbematerial gegossen wurden, das zur Einführung des neuen Bing verwendet wurde…


Dies ist eine Übersetzung eines Artikels, der am Wed, 15 Feb 2023 06:23:10 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/innovazione/quando-lia-sbaglia-gli-scivoloni-di-chatgpt-di-microsoft-e-di-bard-di-google/ veröffentlicht wurde.