Wie intelligent ist KI?

Es geht um den Bombenangriff auf die Gustloff Werke am 09.02.1945.
Normalerweise ignoriere ich, was KI mir bei der gugl-Suche präsentiert und konzentriere mich statt dessen auf die darunter aufgelisteten Seiten.
Eben blieb mein Blick dort aber doch hängen.

  1. Anfrage:

3.Anfrage:

4.Anfrage:

Mein persönliches Fazit:
Es gibt keine dumme KI, nur Menschen, die dumme Fragen stellen.
Und ich bleibe dabei, KI (bis auf Weiteres) zu ignorieren.


Arolsen Liste (Opfer des Bombenangriffs)
audio mit Hintergründen zum Angriff (radiolotte)
https://liberation.buchenwald.de/otd1945/luftangriff
u.v.a. Quellen



Nachtrag (gerade noch mal getestet) – der Vollständigkeit halber

1 „Gefällt mir“

habe ich auch mal probiert mit chatGPT:


2 „Gefällt mir“

Mit chatGPT habe ich keine Erfahrungen (und wie es scheint, brauche ich die auch nicht wirklich!)

Es ist ja kein Geheimnis, dass KI längst noch nicht ausgereift ist.
Ich finde es aber sehr bedenklich, dass auch unausgereifter Quark (sorry für die Wortwahl) interessierten (und gutgläubigen) Menschen als Erstes präsentiert werden darf, und das, OBWOHL die Seiten, die gugl selbst unmittelbar darunter aufgelistet hatte, zu verlässlichen Quellen gehörten, die die KZ Häftlinge unter den Opfern erwähnten.
Auch in dem von KI anfänglich zitierten wikipedia- Artikel gibt es 3 (drei) Zeilen zum Angriff am 17.03. mit 12 Opfern, aber einen ganzen Abschnitt zum 09.02.1945. …..



KI lernt anscheinend schnell, das ist okay – aber WIE sie lernt, das finde ich fast so gruselig wie die o.ä. Aussetzer bei den Zusammenfassungen.
Unter den gugl KI Beiträgen steht normalerweise (kleingedruckt) „KI Antworten können Fehler enthalten“
Jetzt (nur wenige Stunden später) steht dort „Informationen zu hervorgehobenen Snippets“

Das verweist auf diese gugl Seite - Zitat „Hervorgehobene Snippets werden angezeigt, wenn unsere Systeme feststellen, dass Nutzer Antworten auf Fragen suchen, die durch bestimmte Abschnitte auf relevanten Webseiten beantwortet werden können.“

Wessen screenshot wurde hier wohl verarbeitet?
Wie abgesichert ist eigentlich diese Plattform?
Wie sicher sind unterm Strich meine firefox- Sicherheitseinstellungen?

P.S.
Mittlerweile ergibt die Sucheingabe „9.2.1945“ (ohne weitere Ergänzung) dasselbe Ergebnis. (Alle anderen wichtigen Ereignisse dieses Tages haben dann wohl Pech gehabt…)

3 „Gefällt mir“

Ich denke, dass KI grundsätzlich eine nützliche Sache sein kann. Das Problem ist nur, dass sie von vielen halt überschätzt wird und ihre Schwächen nicht hinlänglich bekannt sind, z. B. die Neigung zur so genannten Halluzination. Daran sind die Betreiber der KI sicher auch nicht ganz unschuldig, die natürlich geneigt sind, ihr Produkt als möglichst gut darzustellen.

Viele Leute missverstehen KI (sei es ChatGPT oder die von Google) als zuverlässige Quelle für sämtliche Informationen. Menschen beginnen, der KI blind zu glauben, ohne sich bewusst zu sein, dass die Informationen fehlerhaft sein können (und es nicht selten auch sind), sei es schlimmstenfalls durch (theoretisch problemlos mögliche) bewusste Manipulation durch Betreiber oder aber weit häufiger durch Unzulänglichkeiten der Modelle oder der ihnen zugrunde liegenden Daten.

Die Antworten klingen ja immer plausibel und die KI sagt nie, dass sie sich nicht sicher ist, also wird sie es wohl sein. Ich musste mich gar einmal darüber „belehren“ lassen, ChatGPT sei zuverlässiger, als selbst zu recherchieren, da die KI die Quellen ja besser auf Plausibilität bewerten könne, als ein Mensch!

Und darin sehe ich eine große Gefahr.

2 „Gefällt mir“

Hallo t-m,
du hast es gut auf den Punkt gebracht.
Mir war eine so offensichtliche „Dreistigkeit“ tatsächlich nicht bewusst….(einfach, weil ich diese Zusammenfassungen nie richtig beachtet habe und ihnen vorher auch nie auf den Grund gegangen bin.)
Ich denke, hier in der community werden die meisten KI ohnehin mit Vorsicht genießen.

kleine Anmerkung: Bei mir führt dein link zu der Meldung "Der angeforderte Seitentitel enthält ungültige Zeichen: „%C3“. (Kommt mir irgendwie bekannt vor , schau mal hier)
Hyperlinks erstelle ich deshalb jetzt in word oder odt, das klappt i.d.R. auch mit wiki-links

1 „Gefällt mir“

Danke für den Hinweis, ich habe es korrigiert.

(Ich habe die Vermutung, dass es an Umlauten oder sonstigen Sonderzeichen in der URL liegt, die bereits beim Rauskopieren codiert werden (hier wird aus dem ü die Zeichenfolge „%C3%BC“). Anscheinend versucht die Forensoftware die Prozentzeichen wiederum zu codieren, wodurch dann die Zeichenfolge „%25C3%25BC“ entsteht, was die URL ungültig macht.)

Habe meine Antwort mal hierher verlegt.

1 „Gefällt mir“

Eine andere Frage: Kann es sein, dass dieser Thread keiner Kategorie (wie z. B. „Platz für Austausch“) zugeordnet ist und daher im Forum (außer momentan über „Aktuell“) nicht auffindbar ist? Ich wusste gar nicht, dass das überhaupt möglich ist; sinnvoll erscheint es mit jedenfalls nicht.

Ich hatte tatsächlich die Kategorie „Nicht Kategorisiert“ gewählt (ganz unten im Menü), war unschlüssig, ob es in den „Austausch“ gehört. Hätte ja auch sein können, dass niemand auf den post reagiert, dann wäre es ein Monolog, aber kein Austausch gewesen! :wink:
Ich hab’s geändert!
Tschüss!

1 „Gefällt mir“

sorry, dieser Schnippel muss noch mit


So schnell wird das „Neu Gelernte“ also wieder vergessen und verdreht, :face_with_raised_eyebrow:

1 „Gefällt mir“

Autsch. Wäre das Thema kein so ernstes, wäre es schon beinahe lustig.

Aber es gibt einen kleinen Eindruck davon, wie einfach KI Falschinformationen erzeugen und weiterverbreiten kann, und zwar rein „versehentlich“, ohne das eine böse Absicht zugrunde läge. :frowning:

Mit ein bisschen Pech kommt etwas raus, was falsch ist, aber so plausibel klingt, dass Leute es glauben und weiterverbreiten. Und wenn es ganz mies läuft, landen die weiterverbreiteten Fehlinformationen wieder im Datensatz der KI, sodass sie immer weiter verstärkt werden. :frowning:

„Versehentlich“ ist natürlich trotzdem schlecht in diesem Zusammenhang, aber es geht noch schlimmer. Ich nutze noch Twitter („X“) und vor einigen Wochen hatte der Chatbot „Grok“ ein Update. Danach verbreitete er antisemitische Botschaften. Das Update musste wohl zurückgenommen werden. Die KI ist einfach das persönliche Spielzeug des Betreibers, und so viele Menschen wenden sich an die KI, um Infos zu verifizieren, das ist eigentlich unglaublich.
Hier ist ein Beitrag dazu.

edit:
@t-m hab deinen Beitrag nach dem Verfassen des Posts erst aufmerksam gelesen, sorry. Wiederholt eigentlich nur deine Punkte oben, hatte nur das konkrete Beispiel im Kopf.
Viele Grüße

1 „Gefällt mir“

„Eine neue Studie der Europäischen Rundfunkunion zeigt alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und geben sogar falsche Quellen an.[…] ChatGPT, Claude, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar. […]“

A new study by the European Broadcasting Union shows alarming error rates in popular AI chatbots. The systems regularly invent information and even provide false sources. […] ChatGPT, Claude, Gemini, and other chatbots fabricate up to 40 percent of their answers and present them as facts.

Ganzer Artikel / whole article on tagesschau.de
Studie / study (October 2025): News Integrity in AI Assistants - An international PSM study (October 2025)


Die Zusammenfassung sieht vielversprechend aus :upside_down_face:

(English below)

Danke @mally!
Ich hatte diese „Zusammenfassung“ noch gar nicht auf dem Schirm. Gibt es sie schon länger? Ist das von Arolsen so gewollt? Oder ist sie bei einem discourse update so nebenbei und klammheimlich mit reingerutscht? - @mareike.hennies

Wird uns das Denken, Selber-Lesen, Selber-Schlussfolgern überall immer mehr abgenommen?
Meinung to go?
Mich gruselt’s wieder einmal…

In Sekundenschnelle werden nicht nur Fakten, sondern auch „Stimmungen“ zusammengefasst, KI liest quasi zwischen den Zeilen und „interpretiert“.

The community collaboratively maintains a comprehensive FAQ, encouraging users to add new findings to improve collective understanding / Die Community pflegt gemeinsam eine umfassende FAQ und ermutigt Nutzer, neue Erkenntnisse beizusteuern, um das kollektive Verständnis zu verbessern.
(aus diesem Faden)

Der Austausch zeigt eine kollegiale Zusammenarbeit, bei der auch humorvolle Bemerkungen wie „:ecaf_gninnirg:“ mally die Stimmung auflockern.

Dabei spart das Lesen dieser Zusammenfassung nicht einmal Zeit (gegenüber dem Lesen der Diskussion)

Meine Frage: Sind KI-Zusammenfassungen im ENC-Forum zum jetzigen Zeitpunkt wirklich nötig und sinnvoll?

Mir geht es hier nicht um die nützliche „gute“ KI (Medizin, automatisierte Prozesse etc) sondern um die, die in das persönliche Recht auf Information, die Richtigkeit von Fakten, deren Einordnung und Bewertung eingreift.
Es geht auch um die konzentrierte Macht in den Händen von Menschen wie E. Musk, der versucht, Wiki- durch Grokipedia zu ersetzen, der Milliardengewinne in AI und Roboter-Armeen investiert. (Dabei könnten er und seinesgleichen tausende Menschen vom Verhungern bewahren, und das aus der Portokasse)

Damit kein falscher Eindruck entsteht: die ENC Zusammenfassung wird nicht in den USA, sondern von
QWEN-AI generiert (teilweise opensource, ein chinesisches (!) Alibaba-Produkt)
grafik
Den Gustloff- Werke-Test hat sie übrigens besser als die google-KI bestanden - aber auch erst im 2. Anlauf .

1. Frage / 1st question

2. Frage, Datum hinzugefügt / 2nd question

Fragen zum Dalai Lama oder zu Tibetern im Exil sind bei Alibaba aber nicht willkommen. :face_with_raised_eyebrow:
Qwen-AI generiert die ersten Sätze und bricht dann abrupt ab.
5 von 5 Absätzen werden mit einem „Oops“ geblockt…



Thanks, mally. I hadn’t even noticed this „summary.“ For how long has it been around? Is this intentional on Arolsen’s part? Or did it sneak in during a discourse update?

Are we increasingly being relieved of the responsibility of thinking, reading, and drawing our own conclusions? Opinion to go?
It is really giving me the creeps…

In seconds, not only facts but also „moods“ are summarized; looks like AI is reading between the lines and „interpreting.“

„[…] The community collaboratively maintains a comprehensive FAQ, encouraging users to add new findings to improve collective understanding.“ (from this thread)

Reading this summary doesn’t even save time (compared to reading the discussion)

My question: Are AI summaries in the ENC forum really necessary and useful at this time?

My concern here isn’t with the useful „good“ AI (medicine, automated processes, etc.), but with the personal right to information, the accuracy of facts, and their classification and evaluation.
It’s also about the concentrated power in the hands of people like Mr. Musk, who is trying to replace Wikipedia with Grokipedia, and who is investing billions of dollars in AI and robot armies. (He and his kind could save thousands of people from starvation, just from the petty cash…)

To avoid any misunderstanding: the ENC summary is not generated in the USA, but by QWEN -AI (partially open source, a Chinese (!) Alibaba product)
grafik
By the way, Qwen passed the Gustloff -Works -test better than Google AI - but only on the second attempt, (see the snippets above)
However, questions about the Dalai Lama or Tibetans in exile are not welcome. :face_with_raised_eyebrow:
Qwen-AI generates the first few sentences and then stops abruptly. Here, 5 out of 5 paragraphs were blocked with an „Oops“

2 „Gefällt mir“

de:

ich habe die Zusammenfassung auch erst gestern bemerkt, nur dass die bei mir gestern nicht funktioniert hat, waren nur Balken zu sehen.
Ich kann @routebleue bei allen Punkten nur zustimmen.
Vielleicht gibt es noch paar Stimmen, die der ganzen Sache was Positives abgewinnen können?
Mein Grundproblem ist, ich gebe mir Mühe bei der Formulierung, ich ringe um Worte um das möglichst korrekt darzustellen (nicht transportiert, deportiert, nicht gestorben, ermordet, keine Widergabe von Nazi-Sprech, nur so als Beispiel) und mir passieren trotzdem Fehler und die KI schüttet sich dann Formulierungen aus dem Ärmel, die auch noch faktisch falsch bzw. meine Differenzierung nicht einbezieht.
Ich habe einen Beitrag von mir zusammengefasst und das was ich geschrieben habe unterscheidet sich von der Zusammenfassung.


edit: hier noch ein eindeutiges Beispiel - Bochum ≠ Hawryschiwka

eng:

I only noticed the summary yesterday as well, except that it didn’t work for me yesterday, only bars were visible.
I can fully agree with @routebleue on every point.
Maybe there are still a few people who can find something positive in all of this?

My main problem is that I put effort into my wording, I struggle to find the right words to express things as precisely as possible (for example: not transported but deported, not died but murdered, avoiding Nazi terminology, just as an example), and yet I still make mistakes. Then the AI comes up with phrasing that is also factually incorrect or does not take my differentiation into account

I had one of my own posts summarized, and what I actually wrote differs from the summary (see above)

edit: even more explicit here: Bochum ≠ Hawryschiwka

1 „Gefällt mir“

Hallo in die Runde,

vielen Dank für euren Hinweis!

Der Button war mir bisher auch noch nicht aufgefallen – ich vermute, dass die Funktion mit einem der letzten Updates eingeführt wurde. Ich habe sie nun deaktiviert, da ich eurer Meinung bin: die KI richtet hier eher Schaden an.
In diesem Kontext, in dem Originalquellen und sprachliche Genauigkeit im Vordergrund stehen sollen, erweist sich die Funktion aktuell als wenig geeignet.

Thank you very much for pointing this out!

I hadn’t noticed the button either – I suspect that the feature was introduced with one of the latest updates. I have now disabled it, as I agree with you: the AI tends to do more harm than good here.
In this context, where original sources and linguistic accuracy should be paramount, the function currently proves to be unsuitable.

Best,
Mareike

1 „Gefällt mir“

Vielen Dank, @mareike.hennies! Mit einer so schnellen und kompromisslosen Reaktion hatte ich nicht gerechnet!

(Fast ein wenig schade, ich hätte zu gern gewusst, wie Qwen weiterhin mit Kritik an sich selbst umgeht! :wink:
"Zusammenfassung " von heute, 16:58 Uhr:
@mally 's letzter Beitrag fehlt ganz, Grokipedia und die vermutete Alibaba -Zensur werden nicht erwähnt, und das „.face_with_raised_eyebrow:“ wird auch nicht als Zeichen von „Humorlosigkeit“ interpretiert….

Wünsche euch allen einen entspannten Abend!


Thank you so much, Mareike! I hadn’t expected such a quick and uncompromising response!
(I actually would have loved to know how Qwen continues to deal with criticism of herself! :wink:
„Summary“ from today, 4:58 PM → snippet above
Mally’s last post is completely missing, the previously suspected Alibaba censorship isn’t mentioned, and even the „.face_with_raised_eyebrow:“ isn’t interpreted as a sign of „lack of humor“…

A good evening to everybody!

3 „Gefällt mir“

Ich finde diese Entscheidung auch richtig.

Diese KI-Zusammenfassung war ein lustiges „Spielzeug“, hat aber keinen erkennbaren Nutzen. Und gerade bei einem ernsten Thema wie dem hier behandelten wäre es übel, wenn die KI irgendwelche falschen Behauptungen verteilt, sei es durch Halluzination oder gar durch fragwürdige Quellen in den Trainingsdaten.

(Ich habe den Eindruck, die Entwickler der Forensoftware hatten das Bedürfnis, krampfhaft KI einbauen zu müssen, weil das momentan „in ist“ und KI daher überall sein muss. Denn einen wirklichen Nutzen sehe ich für diese Funktion generell nicht wirklich.)

2 „Gefällt mir“

Hallo zusammen,

mir ist es etwas schwer gefallen, dem Inhalt zu folgen. Welche Zusammenfassung war von KI bzw wer hat was ursprünglich gesagt. Irgendwie war das alles ineinander “verknotet”. Ich selbst bin höchst skeptisch mit KI. Zum einen verstehe ich das nicht, ich kann die Aussagen nicht nachvollziehen und wenn etwas als Intelligent dargestellt wird fühle ich mich einfach unwohl. Es wird (für mich zumindest) zunehmend schwierig zu erkennen, welche Quellen noch “echt” sind und wo KI irgend etwas behauptet (ohne dass ich erkenne dass das KI ist). Von daher bin ich einfach froh, dass Mareike im Forum /die Zusammenfassung von KI deaktiviert hat! Ich finde es sehr wichtig, Falschbehauptungen klar zu stellen und wie hier auch geschrieben wurde Worte sorgfältig zu wählen.

Ich hab in google mal den Begriff “Gustlow” eingegeben, weil ich die ursprüngliche Diskussion verstehen wollte. Wikipedia halte ich für eine recht zuverlässige Quelle - zumindest wenn ich oberflächlich etwas wissen möchte. Unter dem Begriff Gustlow gab es mehrere Artikel über das Schiff. Aber es gab keinen Treffer auf der ersten Seite zu den Gustlow Werken. Auch nicht in der Kombination Gustlow und Ort. Erst Gustlow Werke als Suchbegriff hat auf dieses Rüstungswerk dann hingewiesen.

Und eigentlich sollte das keine “KI”-Suche werden.

Ich hoffe, die Übersetzung mit DeepL ins englische ist weiter okay. Ich lese das zwar Korrektur, aber ich würde nicht auf die präzise Wortwahl vertrauen. Nur, besser kann ich es nicht.

Danke, dass Ihr euch für dieses wichtige Thema eingesetzt habt. Und danke an Mareike für dein konsequentes Handeln!
Herzliche Grüße, Ewei

—–

ENG:

Hello everyone,

I found it a little difficult to follow the content. Which summary was from AI, and who originally said what? Somehow, it all seemed to be “knotted” together. I myself am highly skeptical about AI. For one thing, I don’t understand it; I can’t comprehend the statements, and when something is presented as intelligent, I just feel uncomfortable. It is becoming increasingly difficult (for me at least) to recognize which sources are still “real” and where AI is making claims (without me recognizing that it is AI). That’s why I’m just glad that Mareike deactivated AI in the forum/summary! I think it’s very important to clarify false claims and, as was also written here, to choose words carefully. I entered the term “Gustlow” in Google because I wanted to understand the original discussion. I consider Wikipedia to be a fairly reliable source—at least when I want to know something basically. There were several articles about the ship under the term Gustlow. But there were no hits on the first page for the Gustlow factorys. Nor in the combination Gustlow and location. Only “Gustlow Werke” as a search term pointed to this armaments factory. And actually, this was not supposed to be an “AI” search. I hope the translation into English with DeepL is still okay. I am proofreading it, but I would not rely on the precise choice of words.
Unfortunately, that is the best I can do. Thank you for your commitment to this important issue. And thank you to Mareike for your consistent actions! Best regards, Ewei

Translated with DeepL.com (free version)