Es geht um den Bombenangriff auf die Gustloff Werke am 09.02.1945.
Normalerweise ignoriere ich, was KI mir bei der gugl-Suche präsentiert und konzentriere mich statt dessen auf die darunter aufgelisteten Seiten.
Eben blieb mein Blick dort aber doch hängen.
Mit chatGPT habe ich keine Erfahrungen (und wie es scheint, brauche ich die auch nicht wirklich!)
Es ist ja kein Geheimnis, dass KI längst noch nicht ausgereift ist.
Ich finde es aber sehr bedenklich, dass auch unausgereifter Quark (sorry für die Wortwahl) interessierte (und gutgläubige) Menschen als Erstes anspringen darf, und das, OBWOHL die Seiten, die gugl selbst unmittelbar darunter aufgelistet hatte, zu verlässlichen Quellen gehörten, die die KZ Häftlinge unter den Opfern erwähnten.
Auch in dem von KI anfänglich zitierten wikipedia- Artikel gibt es 3 (drei) Zeilen zum Angriff am 17.03. mit 12 Opfern, aber einen ganzen Abschnitt zum 09.02.1945. …..
KI lernt anscheinend schnell, das ist okay – aber WIE sie lernt, das finde ich fast so gruselig wie die o.ä. Aussetzer bei den Zusammenfassungen.
Unter den gugl KI Beiträgen steht normalerweise (kleingedruckt) „KI Antworten können Fehler enthalten“
Jetzt (nur wenige Stunden später) steht dort „Informationen zu hervorgehobenen Snippets“
Das verweist auf diese gugl Seite - Zitat „Hervorgehobene Snippets werden angezeigt, wenn unsere Systeme feststellen, dass Nutzer Antworten auf Fragen suchen, die durch bestimmte Abschnitte auf relevanten Webseiten beantwortet werden können.“
Wessen screenshot wurde hier wohl verarbeitet?
Wie abgesichert ist eigentlich diese Plattform?
Wie sicher sind unterm Strich meine firefox- Sicherheitseinstellungen?
P.S.
Mittlerweile ergibt die Sucheingabe „9.2.1945“ (ohne weitere Ergänzung) dasselbe Ergebnis. (Alle anderen wichtigen Ereignisse dieses Tages haben dann wohl Pech gehabt…)
Ich denke, dass KI grundsätzlich eine nützliche Sache sein kann. Das Problem ist nur, dass sie von vielen halt überschätzt wird und ihre Schwächen nicht hinlänglich bekannt sind, z. B. die Neigung zur so genannten Halluzination. Daran sind die Betreiber der KI sicher auch nicht ganz unschuldig, die natürlich geneigt sind, ihr Produkt als möglichst gut darzustellen.
Viele Leute missverstehen KI (sei es ChatGPT oder die von Google) als zuverlässige Quelle für sämtliche Informationen. Menschen beginnen, der KI blind zu glauben, ohne sich bewusst zu sein, dass die Informationen fehlerhaft sein können (und es nicht selten auch sind), sei es schlimmstenfalls durch (theoretisch problemlos mögliche) bewusste Manipulation durch Betreiber oder aber weit häufiger durch Unzulänglichkeiten der Modelle oder der ihnen zugrunde liegenden Daten.
Die Antworten klingen ja immer plausibel und die KI sagt nie, dass sie sich nicht sicher ist, also wird sie es wohl sein. Ich musste mich gar einmal darüber „belehren“ lassen, ChatGPT sei zuverlässiger, als selbst zu recherchieren, da die KI die Quellen ja besser auf Plausibilität bewerten könne, als ein Mensch!
Hallo t-m,
du hast es gut auf den Punkt gebracht.
Mir war eine so offensichtliche „Dreistigkeit“ tatsächlich nicht bewusst….(einfach, weil ich diese Zusammenfassungen nie richtig beachtet habe und ihnen vorher auch nie auf den Grund gegangen bin.)
Ich denke, hier in der community werden die meisten KI ohnehin mit Vorsicht genießen.
kleine Anmerkung: Bei mir führt dein link zu der Meldung "Der angeforderte Seitentitel enthält ungültige Zeichen: „%C3“. (Kommt mir irgendwie bekannt vor , schau mal hier)
Hyperlinks erstelle ich deshalb jetzt in word oder odt, das klappt i.d.R. auch mit wiki-links
(Ich habe die Vermutung, dass es an Umlauten oder sonstigen Sonderzeichen in der URL liegt, die bereits beim Rauskopieren codiert werden (hier wird aus dem ü die Zeichenfolge „%C3%BC“). Anscheinend versucht die Forensoftware die Prozentzeichen wiederum zu codieren, wodurch dann die Zeichenfolge „%25C3%25BC“ entsteht, was die URL ungültig macht.)
Eine andere Frage: Kann es sein, dass dieser Thread keiner Kategorie (wie z. B. „Platz für Austausch“) zugeordnet ist und daher im Forum (außer momentan über „Aktuell“) nicht auffindbar ist? Ich wusste gar nicht, dass das überhaupt möglich ist; sinnvoll erscheint es mit jedenfalls nicht.
Ich hatte tatsächlich die Kategorie „Nicht Kategorisiert“ gewählt (ganz unten im Menü), war unschlüssig, ob es in den „Austausch“ gehört. Hätte ja auch sein können, dass niemand auf den post reagiert, dann wäre es ein Monolog, aber kein Austausch gewesen!
Ich hab’s geändert!
Tschüss!
Autsch. Wäre das Thema kein so ernstes, wäre es schon beinahe lustig.
Aber es gibt einen kleinen Eindruck davon, wie einfach KI Falschinformationen erzeugen und weiterverbreiten kann, und zwar rein „versehentlich“, ohne das eine böse Absicht zugrunde läge.
Mit ein bisschen Pech kommt etwas raus, was falsch ist, aber so plausibel klingt, dass Leute es glauben und weiterverbreiten. Und wenn es ganz mies läuft, landen die weiterverbreiteten Fehlinformationen wieder im Datensatz der KI, sodass sie immer weiter verstärkt werden.
„Versehentlich“ ist natürlich trotzdem schlecht in diesem Zusammenhang, aber es geht noch schlimmer. Ich nutze noch Twitter („X“) und vor einigen Wochen hatte der Chatbot „Grok“ ein Update. Danach verbreitete er antisemitische Botschaften. Das Update musste wohl zurückgenommen werden. Die KI ist einfach das persönliche Spielzeug des Betreibers, und so viele Menschen wenden sich an die KI, um Infos zu verifizieren, das ist eigentlich unglaublich. Hier ist ein Beitrag dazu.
edit: @t-m hab deinen Beitrag nach dem Verfassen des Posts erst aufmerksam gelesen, sorry. Wiederholt eigentlich nur deine Punkte oben, hatte nur das konkrete Beispiel im Kopf.
Viele Grüße