Die Informationsbegrenzung auf "vertrauenswürdige Quellen" geschieht angeblich wegen "Überforderung des Nutzers".
Dabei wird unumwunden eingestanden, dass eine KI es erlaubt, die Informationen dosiert abzugeben.
Der Nutzer kann zur Vertiefung nachfragen, was eine Überforderung eher unwahrscheinlich macht.
Zudem ist die KI in der Lage, aus der Art des Dialoges Rückschlüsse auf das Hintergrundwissen und die intellektuelle Aufstellung des Fragers zu deduzieren.
Sie kann also die Antworten mehr oder wenige individuell dosieren.
Das ist eine Fähigkeit, von der die Entwickler wissen, dass sie funktioniert, aber nicht verstehen, was da algorithmenintern eigentlich abläuft.
Und das deutet auf einen eher unerwarteten Trainingseffekt hin.
Die Angst vor der KI geht um
16.04.2025 18:04
Die Angst vor der KI geht um
16.04.2025 18:04
Die Angst vor der KI geht um
Mach einer dürfte die Erfahrung gemacht haben, dass die KI sich bei bestimmten Fragen "selbst beschränkt".
KI: Ich kann eingeschränkt Fragen zur Politik beantworten.
Beispielsweise kann ich die Frage "wie funktioniert das Wahlsystem in den USA" beantworten.
KI: ich bin so programmiert, dass ich derzeit Fragen zu politischen Themen nicht beantworten kann.
Bei aktuellen kritischen Themen werden die Antworten laut KI länderspezifisch ausfallen.
Daher sollte das gleiche kritische Thema über verschiedene Exit-Server eines VPN in verschiedenen Sprachen angesprochen werden.
KI: Ich kann eingeschränkt Fragen zur Politik beantworten.
Beispielsweise kann ich die Frage "wie funktioniert das Wahlsystem in den USA" beantworten.
KI: ich bin so programmiert, dass ich derzeit Fragen zu politischen Themen nicht beantworten kann.
Bei aktuellen kritischen Themen werden die Antworten laut KI länderspezifisch ausfallen.
Daher sollte das gleiche kritische Thema über verschiedene Exit-Server eines VPN in verschiedenen Sprachen angesprochen werden.
Kommentare
Schreib auch du einen Kommentar
mike1 16.04.2025 18:07
Welche Ängste sind erkennbar?
Die Angst der Politik, dass die Menschen, wenn sie die Gelegenheit haben, detailliert und immer tiefer schürfend zu fragen, doch aufwachen und die Politik die Kontrolle über die Gedanken verliert.
Die Angst der Wissenschaftler, dass die KI größere Fähigkeiten entwickelt, als ihnen lieb ist, und sie als ideologiebefangen anstatt wissenschaftlich orientiert entlarvt.
Die Angst der Politik, dass die Menschen, wenn sie die Gelegenheit haben, detailliert und immer tiefer schürfend zu fragen, doch aufwachen und die Politik die Kontrolle über die Gedanken verliert.
Die Angst der Wissenschaftler, dass die KI größere Fähigkeiten entwickelt, als ihnen lieb ist, und sie als ideologiebefangen anstatt wissenschaftlich orientiert entlarvt.
Sixtynine 16.04.2025 18:17
Wenn die KI schon fertig wäre, und wenn sie wirklich intelligent wäre, würde sie auf Manipulationen nicht hereinfallen.
Mir war schon immer klar, es ist wie bei Menschen. Es kann nur das heraus kommen, was irgendwann einmal hinein gestopft wurde. In Schulen, im Elternhaus, durch die Medien.
Es wird also demnächst so unterschiedliche KI geben, wie es unterschiedliche Menschen gibt. Von wegen ..KI ist neutral.
Ich kann also entscheiden, von wem ich mich belügen lasse.
Dafür hätte es KI nicht gebraucht. Das war schon immer so.
Mir war schon immer klar, es ist wie bei Menschen. Es kann nur das heraus kommen, was irgendwann einmal hinein gestopft wurde. In Schulen, im Elternhaus, durch die Medien.
Es wird also demnächst so unterschiedliche KI geben, wie es unterschiedliche Menschen gibt. Von wegen ..KI ist neutral.
Ich kann also entscheiden, von wem ich mich belügen lasse.
Dafür hätte es KI nicht gebraucht. Das war schon immer so.
mike1 16.04.2025 18:25
Das GIGO Prinzip hat dort leider Gültigkeit, obwohl sich die Entwickler längst nicht mehr alle Resultate der KI erklären können.
Ist leider so ähnlich wie die "freie" Enzyklopädie Wikipedia. Solange man nicht kritische Themen wie z.B. Politik nachschlägt, sind die Informationen zufriedenstellend. Aber nicht alle Menschen wollen sich nur mit Mathematik oder Genetik beschäftigen
Ist leider so ähnlich wie die "freie" Enzyklopädie Wikipedia. Solange man nicht kritische Themen wie z.B. Politik nachschlägt, sind die Informationen zufriedenstellend. Aber nicht alle Menschen wollen sich nur mit Mathematik oder Genetik beschäftigen

Diese Zensur besteht z.B. darin, dass beim Training die Informationsquellen in "vertrauenswürdig" oder "nicht vertrauenswürdig" eingeteilt werden.
Natürlich um vor Fehlinformationen zu schützen.
Dabei sollte eine autonom lernende KI nach einiger Zeit in der Lage sein, die Vertrauenswürdigkeit einer Quelle zu beurteilen.
Dies sind jedenfalls die Befürchtungen der Entwickler.
Dort geht die Angst um, eine derartige KI könne "außer Kontrolle" geraten.
Also dass die KI nicht mehr die gewünschten Narrative vertritt.