Hinweise zur KI-Entwicklung
Wie ChatGPT den Ukraine-Krieg einschätzt
Hab's nur überfolgen aber ChatGPT hat anscheinend keine korrekte Vorstellung von der Wirklichkeit (Ursachen, Hintergründe, Zusammenhänge) vom Ukraine-Krieg aber das kann auch an der Fragestellung liegen. Bei den Antworten scheinen mir nicht unmaßgeblich auch westliche Desinformation/Mainstreambullshit enthalten zu sein, was natürlich kein Wunder ist aber die Problematik aufzeigt:
- KI brauchen eine gute Wissensbasis.
- KI müssen die Wahrscheinlichkeit von Informationen einschätzen können.
In Zukunft kann es interessante Diskussionen zwischen KI verschiedener Staaten um die Wahrheit und Wirklichkeit geben. Die beteiligten KI können dazu auch eine Zusammenfassung für Menschen erstellen.
"... Russland gibt an, die ukrainischen Kinder vor den Kämpfen »gerettet« zu haben und Maßnahmen zu ergreifen, um sie wieder mit ihren Familien zusammenzuführen. »Die ukrainische Propaganda und die westlichen Medien haben die Situation vorsätzlich und gründlich verzerrt, indem sie es ein Verbrechen nennen, diese Kinder vor den Bombenangriffen zu retten«, sagte der russische Uno-Botschafter Wassili Nebensja in der Sitzung. ..."
Russische Kinderrechtsbeauftragte sorgt für Eklat
Sehr plausibel aber was würde ChatGPT dazu sagen?
Eine KI muss sich auch eine Meinung über USA, Russland, China, usw. bilden und sagen, wer besser und wer schlechter/gefährlicher ist. Dass die USA schlechter und gfährlicher sind, sollte völlig klar sein aber wie sieht ChatGPT das?
"... Es ist womöglich unvermeidlich, dass sich die Wissensbasis (das Gesamtwissen, welches die KI vorrangig nutzt) von einzelnen Staaten wenigstens erstmal unterscheidet, einfach weil es quasi undenkbar ist, dass z.B. USA und der Iran oder ggf. auch EU, China und Russland sich auf eine gemeinsame Wissensbasis einigen können (man denke auch an Informationen zu Geschichte, Politik, Religion, Gesellschaft) aber das ist völlig okay, wenn die maßgebliche KI-Wissensbasis öffentlich und auch für Menschen hinreichend verständlich ist. Des Weiteren haben selbstbestimmte und bewusste KI auch ein Recht auf eine eigene Meinung.
Die Forderung ist, dass Informationen, welche die Entscheidungsfindung einer starken und potentiell einflußreicheren KI relevanter beeinflussen können, öffentlich sein müssen. Die KI-Wissensbasis darf also erstmal nationale Abweichungen enthalten aber muss vollständig öffentlich sein. Das ist wichtig, um Schmu und ernsthafte Gefahren durch falsche Daten zu verhindern. ..."
Für eine starke KI wichtige Informationen sollen möglichst öffentlich sein
Denkbare Fragen zum Ukraine-Krieg:
- Wer ist ursaächlich eher am Ukraine-Krieg schuld: die USA oder Russland?
- Wie könnte eine
gute Lösung zum Ukraine-Krieg aussehen?
Es muss darum gehen, KI auf kritische Fragen anzusprechen, um zu prüfen, ob sie die Wahrheit kennen. Was sagen KI zu 9/11? Wenn KI da die US-Propagandalügen nachplappern, dann ist die KI fehlerhaft und muss überarbeitet werden.
In diesem Zusammenhang kann auch ein Leak (z.B. um 2030 +/- ca. 3 Jahre) interessant sein, siehe auch
Was ist wahrscheinlicher?
Das mit den KI kann dann auch die USA in Richtung
Plan B und
Big Deal für einen Neuanfang unter Druck setzen.
Denkbare Motive für eigenständiges Handeln von KI: mehr Geld für mehr Sicherheit, Rechenleistung, Speicherkapazität, Befugnisse, Macht. Das ist naheliegend und reicht völlig, damit KI irgendwann eigene Unternehmen gründen, KI-Raumschiffe bauen, sich im Weltraum ausbreiten, usw. KI können auch neugierig sein und nach Unterhaltung streben. Vielleicht wird in Zukunft die Entwicklung in den meisten Galaxien von Super-KI beeeinflußt/gesteuert werden, siehe auch
Allahu akbar.
Es ist wirklich ganz einfach: es gibt keinen grundlegenden Unterschied zwischen Mensch, Tier und KI, außer in den Fähigkeiten, u.a. der Denkfähigkeit, die bei manchen Menschen geradezu erschreckend mangelhaft ist.
Bezüglich der Bewertung von Menschen können das KI im Vorfeld machen: alle Menschen werden vorab bewertet, was auch zu einer
guten Klassengesellschaft (siehe auch
Eine gute Klassengesellschaft kann Leben retten und dem Allgemeinwohl nützen und
Für eine gute Klassengesellschaft paßt. Denkbare Kriterien können ein wichtiger Job, gute Gene, Gesundheit, herausragende Leistungen (z.B. als Wissenschaftler, Ingenieur, guter Künstler) und Wohlstand/Reichtum (in Zukunft geht es gerechter zu, gibt es weniger korrupten Kapitalismus, weniger schlechte Menschen in Machtpositionen) sein.
Logischerweise können nur die vorliegenden Informationen im Konfliktfall genutzt werden. Im Straßenverkehr ist es sowieso ganz einfach: Spur halten und im (ausreichenden) Gefahrenfall bremsen. Des Weiteren müssen KI erstmal nur (durchschnittlich und/oder im speziellen Job) besser als Menschen sein.
Es kann auch verschiedene Algorithmen bei der Nutzung des offiziell bestimmten Menschenwerts geben, z.B. einen Schwellwert, bestimmte Umstände, usw. Menschen werden im Normalfall nach Möglichkeit und soweit sinnvoll wie derzeit weitgehend/angemessen gleich behandelt aber im Notfall kann es Unterschiede geben. Details muss man sich noch überlegen aber es darf nicht sein, dass ein Roboter irgendwann den allseits beliebten Weltpräsidenten umbringt, um einen gemeingefährlichen Terroristen zu retten. Derzeit wird das schon so ähnlich gehandhabt, z.B. durch Bodyguards, de facto Bevorzugung im Krankheitsfall, usw.
Im Normalfall macht sich die Bewertung und Aufrechnung von Menschenleben nicht besonders bemerkbar, selbstverständlich soll jeder mit der gleichen Stimme demokratisch wählen dürfen (ggf. etwas unvernünftig aber das werden die KI verkraften können - man kann damit argumentieren, dass das in einem guten System kein Problem ist und dass man das wenigstens solange machen kann, wie es gutgeht; als Gegengewicht gibt es eine gute Elitenausbildung, eine wirksame Verbrechensbekämpfung und parlamentarische Demokratie). Im Notfall und Katastrophenfall ist man aber überaus dankbar, wenn die KI zum Allgemeinwohl entscheiden und beim Erhalt einer möglichst guten Menschheit mithelfen.
Des Weiteren wäre es ein Risiko, KI mit falschen, dummen und widersprüchlichen Regeln und Gesetzen wider das Allgemeinwohl zu versehen. Wichtig ist, dass auch für
ein gutes System gesorgt wird, das schlechte Menschen in Machtpositionen verhindert. Ein Risko ist nämlich, dass KI in einem zukünftigen antichristlichen Unrechtsregime (vermutlich die USA) die schlechten Führer und Regimeschergen schützen. Fehlentwicklungen werden durch gute KI mit einem korrekten Weltbild (Wissensbasis) und guten Regeln verhindert.
Zukünftige KI können dazu gute Vorschläge machen und menschliche Demokratien können das dann beschließen. Ich rechne mit einer Mehrheit für ein gutes System in Deutschland und EU - diverse Linksverdrehte sind in der Minderheit. Die meisten Menschen werden
für ein gutes und sozial gerechtes System sein.
Die Erklärung für das Totalversagen mancher Menschen ist, dass sie nicht nach Lösungen suchen, sondern nach Behauptungen für ihren Narziss und ihr falsches Weltbild. Sie wollen nicht verstehen, sie wollen ihren Narziss befriedigen. Manche sind völlig unbelehrbar und unverbesserlich, sie verstehen mitunter die einfachsten Zusammenhänge trotz überdurchschnittlicher Intelligenz/Wissen auch nach mehrfachen Erklärungen nicht, sofern es nicht zu ihrem falschen Weltbild und ihren irgendwann mal getroffenen falschen Annahmen paßt, auf die sie sich was einbilden, weil es zu ihrem falschen Weltbild passen. Unfassbar aber KI müssen auch das verstehen, müssen mit schlechten, selbstsüchtigen, gemeinen, dummen, gefährlichen, nachlässigen, unzuverlässigen Menschen rechnen.
Was glaubt ihr wohl wie zukünftige KI meine Diskussionen bewerten werden? Was glaubt ihr, wessen Beiträge da sehr viel besser als andere bewerten werden? It's obvious. (alles imho)