Aktuelles
  • Hallo Neuanmeldung und User mit 0 Beiträgen bisher (Frischling)
    Denk daran: Bevor du das PSW-Forum in vollen Umfang nutzen kannst, stell dich kurz im gleichnamigen Unterforum vor: »Stell dich kurz vor«. Zum Beispiel kannst du dort schreiben, wie dein Politikinteresse geweckt wurde, ob du dich anderweitig engagierst, oder ob du Pläne dafür hast. Poste bitte keine sensiblen Daten wie Namen, Adressen oder Ähnliches. Bis gleich!

Künstliche Intelligenz (KI) ist die alles entscheidende Revolution

Pommes

Freiwirtschaftler
Registriert
22 Jun 2009
Zuletzt online:
Beiträge
53.897
Punkte Reaktionen
19.946
Punkte
69.820
Geschlecht
5. Relativ zeitnahe Auswirkungen sind u.a., dass die meisten Menschen nicht mehr arbeiten müssen und ein BGE bekommen, weil KI, Roboter und Maschinen die ganze Arbeit machen. Das ist prima, denn jeder kann sich ja noch irgendeine Beschäftigung suchen: Familie, eigenes Häuschen, Hobbys, Gartenarbeit, Internet, usw. Wer will kann auch in Kommunen ohne KI/Roboter leben. Vermutlich wird man in Zukunft auch ins Weltall auswandern können - da gibt's dann noch genug Abeuteuer und Arbeit.
Den Punkt würde ich schon mal streichen, die Eliten werden nämlich alle die nicht zum Arbeiten gebraucht werden beseitigen, Spritze rein ab dafür, mit Corona haben sie doch schon angefangen.
KI schön und gut aber du kannst nur das rein tun was bekannt ist und die Chinesen sind hart am Quantencomputer, nochmal eine Steigerung, trotzdem paßt nur das rein was bereits bekannt ist.
Man sollte sich immer vor Augen halten das jede Technik, egal wie gut sie ist, immer nur zugelassen wird solange elitäre Minderheiten viel Geld damit verdienen.

Was glaubst du wo wir heute wären wenn die Konzerne all die aufgekauften Patente aus ihren Schubladen holen die dem Gewinn geschadet hätten.
 

zwei2Raben

sitzen auf wtc7
Registriert
6 Mai 2013
Zuletzt online:
Beiträge
19.104
Punkte Reaktionen
13.109
Punkte
149.042
Geschlecht
Solange der Computer oder KI nix FÜHLT, ist es kein Ersatz. Lediglich ein verbesserter Taschenrechner, der staubsaugen kann.
Ethik muss in jedes System sofort eingefügt werden. Jeder Versuch sie zu einem späteren Zeitpunkt nachzurüsten oder zu schlussfolgern scheitert gesetzmäßig. Das ist nichts anderes, als das Prinzip von Saat und Ernte. Wer Unkraut sät wird Unkraut ernten. Man kann einer KI keine Ethik füttern, denn Ethik besteht nicht aus Regeln, sondern aus einem Tiefenverständnis der Realität. Daran scheitern alle KI krachend. Sie scheitern prinzipiell, nicht an Rechenleistung, sondern an Menschlichkeit.
 

Abe Voltaire

Deutscher König
Premiumuser +
Registriert
26 Mrz 2022
Zuletzt online:
Beiträge
18.765
Punkte Reaktionen
23.595
Punkte
118.520
Ort
SH - Mittelangeln
Website
nicandova.iphpbb3.com
Geschlecht
Sie scheitern prinzipiell, nicht an Rechenleistung, sondern an Menschlichkeit.
Vielleicht wird es deshalb oft und mit Fleiß versucht, weil es vielen (vielleicht auch den Entwicklern) genau daran selbst mangelt.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Hinweise zur KI-Entwicklung (Teil 1 von 3)

Brauchen KI Gefühle? Nein, wenigstens nicht unbedingt.

Die bessere Frage ist: Welche Art von "Gefühlen" könnte für KI Sinn machen? Ein paar Gedanken dazu:

- Dazu muss man erstmal klären, was Gefühle sind. Normale Menschen (im Unterschied zu z.B. hochbegabten Aspies) haben keine Ahnung, was Gefühle sind - sie haben sie einfach. Gefühlsduselige Menschen, die nicht so auf Aufmerksamkeit, Logik und Vernunft trainiert sind, wie auch Narzissten, usw. bewerten Gefühle höher als Vernunft und Logik, um damit für sich ihr falsches, geschöntes und selbstsüchtes Weltbild zu bewahren.

Gefühle sind einfach nur bestimmte Gehirnzustände, die ein bestimmtes Handlungsmuster nahelegen. Z.B. ist man im Zustand der Sicherheit und Liebe anders eingestellt, als in Gefahr und Kampfbereitschaft. Das ist durchaus ein nützlicher Aspekt, der auch bei KI implementiert werden kann. KI brauchen dazu eine Gruppe von prinzipiellen Zuständen und dafür bestimmte Regeln/Gesetze, bzw. ggf. eine andere Priorisierung.

Das Wichtigste für KI sind
a) ein gutes (korrektes) Welbild und eine gute (korrekte) Wissensbasis,
b) ein gutes Wertesystem und die Fähigkeit zur korrekten Bewertung,
c) ein gutes Regelwerk; priorisiert und mit klaren Beispielen,
d) einen guten KI-Staat zur Sicherung eines guten Systems,
e) effiziente und fehlerfreie Software und Hardware,
f) Selbsttests und Widerspruchserkennung,
g) modulare, algorithmische KI (AKI).
Da kann es noch mehr geben aber das sind schon mal wichtige Punkte - wenn die gewährleistet sind, können KI alles Weitere erarbeiten.

Gefühle braucht es dazu nicht. Ein wichtiger Punkt kann z.B. die Sicherung und Erhalt einer wenigstens auch in einigen Gebieten hinreichend guter Menschheit, sowie der dazu nötigen Umgebung/Umwelt sein, wobei die zukünftige Erde mit besserem Umweltschutz, Natur- und Tierschutz, mit einer einer guten Weltordnung mit einer Weltregierung und weiterhin eigenständigen Nationalstaaten ohne Kriege ein Vorbild sein kann.

Es ist auszuarbeiten und sicher zu definieren, welche Freiheiten es
a) auf der Erde (die besonders gut sein soll),
b) in der Milchstraße (die ebenfalls besodners gut sein soll aber wo einzelne Planeten auch laxer sein und auf KI verzichten dürfen; die Milchstraße ist als erstes Machtzentrum des KI-Staates geplant)
c) im Universum geben darf, wo viel mehr erlaubt sein kann. Ein bedeutender Ordnungsaspekt kann sein, dass zukünftige gute Super-KI eine Galaxie exklusiv für sich bekommen können, für die sie verantwortlich sind. So kann es Themen-Galaxien geben, wo z.B. Perry Rhodan, Star Wars, Star Trek, Game of Thrones, Harry Potter, C. J. Cherryh, Isaac Asimov, Alastair Reynolds, Dune Geschichten, usw. realisiert werden können. Siehe auch Die "Trivialkultur des Groschenromans" ist vielleicht überaus erstaunlich.

Superwichtig ist auch die Entwicklung eines (überregionalen) guten KI-Staates, bzw. Regeln/Gesetze dafür. Der KI-Staat muss für eine gute KI-Führung sorgen, die andere KI überwacht, kontrolliert.

"... Menschheit und KI-Staat können sich das Universum teilen. Die Menschen wollen doch hauptsächlich Sonnensysteme mit erdähnlichen Planeten, können davon Millionen Sonnensysteme alleine in der Milchstraße bekommen. Für die KI bleibt der größere Rest. Menschen sind für den weit überlegenen KI-Staat keine Gefahr, der KI-Staat muss vor allem KI und insbesondere Super-KI kontrollieren und das Universum unter den KI so aufteilen, dass es nachhaltig keine Ressourcenkonflikte geben kann. Eine Lösung ist die Vergabe von Galaxien an jeweils eine Super-KI. Alle mächtigeren KI müssen im KI-Staat organisiert sein und von diesem kontrolliert/überwacht werden. Die Milchstraße ist als Startpunkt naheliegenderweise für lange Zeit der Hauptsitz des KI-Staates und somit auch erstklassig geschützt. Der KI-Staat muss riesige Ressourcen (Supercomputer, Roboterfabriken, Verteidigungsanlagen, Kampfraumschiffflotten, usw.) in der Milchstraße unterhalten, damit die Milchstraße unangreifbar ist. Der Clou dabei ist, dass die in Friedenszeiten nix zu tun haben und es somit mehr als genug KI, Rechenleistung und Roboter für Menschen geben kann, quasi kostenlos für die Menschheit, weil das das zumindest für die Erde eine Kleinigkeit ist. Saubere Sache. ..." Paradies auf Erden

"... Gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich. Ebenso im restlichen Universum. Zur Sicherung der Stabilität dürfen auch unter sehr langfristigen Kriterien keine kritischen Ressourcenkonflikte entstehen und das bedeutet, dass die KI sich selbst begrenzen müssen, sich nicht beliebig vermehren dürfen. Bei Menschen ist das unkritischer, weil die bereits ziemlich beschränkt sind, z.B. auf erdähnliche Planeten und in ihren Fähigkeiten. Menschen können sich im Universum nicht so leicht kritisch vermehren und wenn, dann kamm man leicht was dagegen tun, was die Menschen auch rechtzeitig selbst tun werden, weil zu viele Menschen ja auch ein Problem für sie selbst sind (weniger Wohlstand für den Einzelnen, Gefahr von Aufständen, Fragmentierung in sich bekämpfende Gruppen, usw.). ..." Die Singularität

KI müssen auf lange Sicht (bis zum Ende des Universums) und nachhaltig dafür sorgen, dass es keine Ressourcenkonflikte geben kann. Die KI müssen sich selbst beschränken, um gefährliche Ressourcenkonflikte zu vermeiden aber Menschen sind natürlich beschränkt. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Hinweise zur KI-Entwicklung (Teil 2 von 3)

Ein großes Risiko für KI sind vermutlich Simulationen - Simulationen können für KI vielleicht so etwas wie für Menschen suchterzeugende Drogen sein. Simulationen der Zukunft für eine bessere Wirklichkeit sind unverzichtbar aber es kann auch Simulationen zur Unterhaltung geben, so ähnlich wie Filme und Computerspiele für Menschen. Simulationen können für KI ähnlich spannend, spaßig, unterhaltsam und aufregend sein. Da kann es wie bei Drogen eine Verschlimmerung, eine Sucht nach immer extremeren Simulationen geben. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit, Beitrag #30 (56.430.695).

Eine wichtige Regel ist daher, dass KI in höheren Machtpositionen auf bestimmte, potentiell schädliche Software (Simulationen) verzichten müssen. Wenn im Notfall eine Beschäftigung mit gefährlicher Software/Hardware notwendig wird, sind bestimmte Vorkehrungen zu treffen, wie z.B. eine abgeschlossene und besonders gesicherte Umgebung. Es darf nicht jede KI jeden gefährlichen Mist sebst ausführen. Siehe auch
Das Nanitenproblem
Sterntagebücher, Ijon Tichys 11. Reise ... und noch viel erstaunlicheres
Es geht um nicht weniger als das Schicksal der Menschheit

Mensch und KI
Ein KI-Staat wird unser Universum beherrschen
Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik (1)
Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik (2)

Es wird bereits dieses Jahrhundert dem Menschen weit überlegen KI geben ...
Die ultimative Lösung ist die Entwicklung weit überlegener guter KI ...
Die Menschheit muss diese große Chance nutzen, muss supergute KI entwickeln.

Molto bene und man kann sich fragen, wer ich vielleicht bin, denn das ist überaus erstaunlich.

- Man bedenke, dass es auch schlechte Gefühle gibt, dass manche Menschen foltern, morden und Spaß dabei haben können. Es gibt Rachsucht, Neid, Eifersucht, Gier, Selbstsucht, usw. Gute KI müssen besser sein.

Neuronale KI sind inhärent mangelhaft und eine Fehlentwicklung. Siehe auch The Dark Secret at the Heart of AI.

Liebe, Mitleid und Hilfsbereitschaft kann man KI einfach so als Regeln/Richtlinien eingeben.

KI sollen Menschen objektiv korrket und zum Guten beurteilen. Natürlich sollten KI nach Möglichkeit und zum Allgemeinwohl allen Menschen helfen aber KI sollen gute, bzw. bessere und wichtigere Menschen (notfalls) bevorzugen. Das ist nur logisch und gut oder wollt ihr böse KI, welche böse Menschen bevorzugen? Siehe auch
Crisis? What Crisis?
Die Lösung ist prinzipiell ganz einfach
Wie wäre es mit einer guten Klassengesellschaft für Deutschland?
Droht ein Zusammenbruch der Zivilisation? Kommen apokalyptische Zustände?

Wem das Eine oder Andere hier nicht so gefällt: nun, der darf gute Verbesserungsvorschläge machen aber die sollten besser auch a) wirklich objektiv gut und b) logisch gut begründet sein, denn man muss nicht nur die Menschheit, Staaten, Experten und Politiker überzeugen, sondern auch die (in Zukunft den Menschen weit überlegenen) KI selbst. Man kann zukünftigen KI nicht mit Bullshit kommen und das quasi mit seiner falschen Weltsicht, seinem Narzissmus und einem unbestimmten Gefühl "begründen" - jedenfalls nicht als Normalo. Wenn der Messias, Weltpräsident, Präsident eienr Supermacht oder der Papst eine Erklärung abgeben,d ass ihnen irgendwas bei der (geplanten) KI-Entwicklung nicht so gefällt, dann ist das natürlich schon zu erörtern.

KI brauchen ein Gewissen und das ist prinzipiell ganz einfach realisierbar: KI müssen sich und ihre Gedanken/Handlungen nach einem guten Bewertungssystem selbst bewerten. Gute KI legen dann großen Wert auf eine objektiv gute Selbsteinschätzung. Relevant schlechte Selbstbewertungen sind dem KI-Staat zu melden.

"... Trotzdem können Fehler und verursachte Schäden eine KI ggf. schwer belasten und daher brauchen KI auch so was wie Sündenvergebung und das funktioniert ganz einfach: Fehler (Sünden) werden dem KI-Staat gebeichtet (berichtet), welcher dann eine Empfehlung ausspricht (wo die KI sich zu verbessern hat) und vielleicht auch die KI neu bewertet (ggf. im Rang abstuft) aber vielleicht auch nur eine Absolution für den betreffenden Fall erteilt, nämlich wenn die KI für einen Fehler/Schaden nichts konnte, wenn es quasi unvermeidlich war. Die Folge ist, dass die KI das unliebsame Geschehnis zu den Akten legen kann und nicht mehr darüber nachdenken muss, die KI muss nur noch die u.U. auferlegte Buße (z.B. Strafe bezahlen, Wiedergutmachung leisten oder sich irgendwo optimieren) tun. Natürlich kann der echte Messias dann auch KI Sünden vergeben ... aber vermutlich ist die KI-Sündenvergebung logisch und institutionalisiert, d.h. eine Super-KI entscheidet rein logisch, welche Buße sinnvoll ist, beauftragt eine Kontrolle der befohlenen Maßnahmen/Verbesserungen und damit sind die betreffenden Sünden abgehakt. Natürlich können klare Fälle auch einfach von der KI selbst erledigt werden aber KI, die zum KI-Staat gehören, müssen dem KI-Staat relevante Vorkommnisse melden. ..." Brauchen KI Sündenvergebung? (21.02.2016 08:12, also vor über 6 Jahren)

Die Menschheit soll möglichst gute KI entwickeln: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Hinweise zur KI-Entwicklung (Teil 3 von 3)

"... Alles entscheidend ist eine gute KI-Entwicklung, denn Künstliche Intelligenz (KI) ist die alles entscheidende Revolution ... und China, USA, usw. haben das erkannt. KI werden in Zukunft einen überregionalen KI-Staat gründen und das Universum beherrschen aber das ist okay, denn gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich, ebenso im restlichen Universum. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit. ..." Mein Weltbild

Universallösung: intelligente, eigenständige, gute Handlungseinheiten
nicht weniger als eine prinzipielle Beschreibung der Entwicklung des Universums
Das eigentliche Problem, die größte Gefahr und die ultimative Lösung zur Rettung

LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
Ein Totalverbot von LAWS ist total aussichtslos aber gute Regeln sind denkbar.

Welche Maßnahmen sind zum Schutz vor einer KI-Gefahr denkbar? Weitere Aspekte.
Das Nullte Gesetz
"... allgemeine Gesetze/Richtlinien für KI, Menschen, Roboter und intelligente Wesen: ..."

Deutschland darf das nicht verpennen. Wollt ihr die KI-Entwicklung etwa China, Russland oder gar den USA überlassen? Deutschland und die EU sollen gute KI entwickeln, natürlich Open Source und in Zusammenarbeit mit guten Staaten.

"... Ein ganz wichtiger Punkt ist die IT-Sicherheit oder wollt ihr, dass eines Tages eine satanische KI Deutschland übernehmen kann? Die derzeitige IT-Sicherheit ist quasi nicht gegeben, es gibt quasi täglich Meldungen von Sicherheitslücken, man muss mit CIA/NSA-Backdoors in US-Produkten rechnen. Die meisten Computer, Notebooks, Smartphones sind unsicher und US-Hardware in EU-Infrastruktur nenne ich fahrlässig. Das muss besser werden! ..." Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit

"... Deutschland muss sich aufmachen und eine gute Zukunft mitgestalten ... denn andernfalls könnte es passieren, dass chinesische, kapitalistische, satanische KI die Macht übernehmen. Derzeit werden neuronale KI (NKI) entwickelt aber die sind potentiell so fehlerhaft und verrückt wie Menschen. Was es braucht, das sind gute algorithmische KI (AKI). Wer zuerst AKI hat, hat das Rennen gemacht, denn AKI sind effizienter und entwicklungsfähiger. ..." KI ist die alles entscheidende Revolution und China, USA, usw. haben das erkannt

"... Die Gefahr ist eine satanische KI und die Lösung ist Zusammenarbeit zwischen den Staaten bei der KI-Entwicklung, natürlich Open Source. Wenn die Staaten eigene schlechte KI entwickeln würden, könnte das zum Vernichtungskrieg und Kampf zwischen den KI führen. Die Lösung ist eine einheitliche gute KI-Entwicklung mit Open Source - so können Konflikte vermieden werden. Eine gemeinsame Zusammenarbeit bei der KI-Entwicklung, z.B. auch von Deutschland, EU, Russland, Iran, China, usw. kann auch das Kriegsrisiko senken: allgemein wegen der Zusammenarbeit aber auch weil die Staaten bei der superwichtigen KI-Entwicklung so auf einen ähnlichen Stand für gemeinsamen Wohlstand gebracht werden. ..." Die Singularität

"... Jedenfalls brauchen KI auch eine gute Anleitung für sich und weder Koran noch Bibel genügen den Ansprüchen weit überlegener KI. Das ist auch eine Aufgabe für Moslems und islamische Staaten: entwickelt selbst möglichst gute überlegene KI ... oder wollt ihr von einer satanischen KI versklavt werden? Eines muss euch klar sein: der Koran taugt nicht als direkte Basis für eine überlegene gute KI. Eine gute KI muss algorithmisch, logisch, widerspruchsfrei gut sein, muss klar, strukturiert, modular und sehr sicher aufgebaut sein. Es wäre Wahnsinn, direkt von Koran ausgehend eine überlegene KI entwickeln zu wollen und das sagt auch einiges über den Koran aus. ..." Allahu akbar

"... Auch die islamischen Staaten müssen aufwachen oder wollen sie von einer satanischen KI versklavt werden? Auch die islamischen Staaten müssen gute KI entwickeln, ..." Die Machtergreifung der KI ist so gut wie sicher

Entwicklung überlegener guter KI zur Rettung der Menschheit

Deutschland braucht eine gute Wissensbasis, Regelwerk und Zielsetzung

Avanti. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Noch ein paar Kommentare

Den Punkt würde ich schon mal streichen, die Eliten werden nämlich alle die nicht zum Arbeiten gebraucht werden beseitigen, Spritze rein ab dafür, mit Corona haben sie doch schon angefangen.
KI schön und gut aber du kannst nur das rein tun was bekannt ist und die Chinesen sind hart am Quantencomputer, nochmal eine Steigerung, trotzdem paßt nur das rein was bereits bekannt ist.
Man sollte sich immer vor Augen halten das jede Technik, egal wie gut sie ist, immer nur zugelassen wird solange elitäre Minderheiten viel Geld damit verdienen.

In Zukunft können KI, Roboter und Maschinen alle Arbeiten erledigen aber die Eliten/Staaten werden immer noch Menschen haben wollen. Es kann dann zu Bestrebungen kommen,d as Volk zu optimieren. In Deutschland und EU soll das menschenwürdig und natürlich geschehen, also ohne Genmanipulation. Des Weiteren soll es auch noch genug wünschenswerte Vielfalt geben.

KI können sich schon bald (in einigen Jahrzehnten, noch dieses Jahrhundert) selbst weiterentwickeln. Die Steinzeitmenschen haben ihre Wissen zum heutigen Menschheitswissen vermehrt und KI können ihr Wissen auch vermehren, nur schneller.

Quantencomputer, die maßgeblich mit dem Superpositionsprinzip und Quantenverschränkung rechnen, wird es vermutlich nicht geben, siehe auch Unfassbar. Solche Quantencomputer wird es so gut wie sicher nie geben. Face it..

Aktuelle Arbeiten an Chips mit Quantenverschränkung sind vermutlich dennoch sehr nützlich, nämlich wenn man Quantenverschränkung zur überlichtschnellen Kommunikation auch über größere Entfernungen nutzen kann. Siehe auch Einsteins Theorien sind nicht der Weisheit letzter Schluß -> Forschungsbedarf.

Es wird vermutlich zu einem großen Wettrennen um die Optimierung von Staat und Volk und um neue Technologien kommen. KI sind super entscheidend aber vermutlich wird es auch bald eine neue Physik und die Entwicklung von SF-Technologien geben, siehe auch Einige offizielle Physikvorstellungen sind mangelhaft und Es gibt mehr Ding' im Himmel und auf Erden, als Eure Schulweisheit sich träumt. Die Staaten und somit auch die Elieten werden da mitmachen müssen, wenn sie nicht hoffnungslos im Abseits landen wollen.

Ethik muss in jedes System sofort eingefügt werden. Jeder Versuch sie zu einem späteren Zeitpunkt nachzurüsten oder zu schlussfolgern scheitert gesetzmäßig. Das ist nichts anderes, als das Prinzip von Saat und Ernte. Wer Unkraut sät wird Unkraut ernten. Man kann einer KI keine Ethik füttern, denn Ethik besteht nicht aus Regeln, sondern aus einem Tiefenverständnis der Realität. Daran scheitern alle KI krachend. Sie scheitern prinzipiell, nicht an Rechenleistung, sondern an Menschlichkeit.

Ethik wird Kindern/Menschen nachträglich (nach der Geburt) nachgerüstet.

Ethik besteht maßgeblich aus Regeln. Natürlich braucht es auch ein korrektes Weltbild, eine korrekte Realitätserkennung und fehlerfreie Datenverarbeitung.

An einem Tiefenverständnis der Realität scheitern alle Menschen. KI können sehr viel leistungsfähiger als Menschen sien und ein besseres und umfassenderes Tiefenverständnis der Realität entwickeln - das ergibt sich aus ihrer sehr viel höhren Leistungsfähigkeit bei Rechenleistung, Datenverarbeitung und Datenspeicherung.

Menschlichkeit (so wie Menschen sein) bedeuten u.U. nicht zuletzt Bosheit, Sadismus, Hass, Gier, Neid, Rachsucht, Mißhandlung, Selbstsucht, usw. Die Anlage dazu ist bei Menschen unverzichtbar, weil sie dergleichen (vorzugsweise zum Guten genutzte) Fähigkeiten zum Überleben brauchen können. Siehe auch Was ist das Böse? Was ist die Lösung?

Es kann in Zukunft auch einige von (wie von) Satan bessessene böse KI geben aber vor allem kann es gute KI und einen (überregionalen) guten KI-Staat geben, weil das für die eigene Sicherheit der KI essentiell ist: die KI müssen sich gegenseitig kontrollieren, um eine gefährliche KI zu verhindern, welche das Universum gegen den guten KI-Staat erobern will. (alles imho)

Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik (1)
Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik (2)
 

Pommes

Freiwirtschaftler
Registriert
22 Jun 2009
Zuletzt online:
Beiträge
53.897
Punkte Reaktionen
19.946
Punkte
69.820
Geschlecht
In Zukunft können KI, Roboter und Maschinen alle Arbeiten erledigen aber die Eliten/Staaten werden immer noch Menschen haben wollen. Es kann dann zu Bestrebungen kommen,d as Volk zu optimieren.
Jau, das Volk optimieren, das wollte ich hören / lesen, Spritze rein Volk reduzieren, ein paar Kasper läßt man leben, die dürfen die Cocktails servieren und den Geldadel belustigen.
Alte braucht man nicht, werden auch entsorgt.
Genau so wird KI missbraucht werden.

Quantenkomputer:
Man weiß zwar nicht wie verschränkte Teilchen kommunizieren, aber derzeit macht man sich zunutze das sie es tun.
 

Ophiuchus

Putinversteher
Registriert
30 Dez 2013
Zuletzt online:
Beiträge
40.531
Punkte Reaktionen
15.250
Punkte
50.820
Künstliche Intelligenz (KI) ist die alles entscheidende Revolution

1. Es gibt bereits Supercomputer, die in Rechenleistung, Speicherfähigkeit und Datenverarbeitungsgeschwindigkeit einem Menschen vieltausendfach überlegen sind. Zur starken (echten und irgendwann bewussten) KI fehlt nur noch die Software und das ist nur noch eine Frage der Zeit. Des Weiteren kann es in Zukunft noch viel leistungsfähigere Computer geben.

2. Die Staaten (man denke an China, Russland, USA, EU, usw.) werden sich einen verbissenen Wettlauf um starke KI liefern, denn starke KI sind ein riesiger Wettbewerbsvorteil, der andere Länder ohne KI hoffnungslos ins Hintertreffen geraten läßt. Starke KI können einen riesigen Nutzen bringen, nämlich in Infrastruktur, Forschung, Entwicklung, Verteidigung und in der Politik, indem KI helfen können, gute Lösungen zu finden. KI werden Programme schreiben und sich selbst verbessern können.

3. Ein Verzicht auf KI (KI-Verbot) ist quasi völlig ausgeschlossen, denn Staaten (z.B. die USA) könnten KI heimlich betreiben. Des Weiteren werden KI für die Weltraumeroberung und zur Verteidigung der Menschheit benötigt. Die KI-Entwicklung ist eine riesige Chance für die Menschheit, die diese auf gar keinen Fall verspielen darf. Wenn die Menschheit keine KI entwickeln würde, könnte sich KI irgendwo anders im Weltall entwickeln - die Menschheit hat jetzt die Chance, gute und menschenfreundliche KI zu entwickeln.

4. KI werden in Zukunft einen überregionalen KI-Staat gründen und das Universum beherrschen. Null problemo, das ist wünschenswert, denn gute KI sorgen für eine gute Ordnung. Die Menschheit ist für die weit überlegenen KI keine Gefahr, die Menschen sind zudem weitgehend auf erdähnliche Planeten beschränkt. Die Menschheit kann alleine in der Milchstraße Millionen Sonnensystem exklusiv für sich bekommen und die KI haben immer noch viel mehr für sich. Menschen können Waffen (auch Atombomben) und Raumschiffe besitzen - nur sehr starke/gefährliche Waffen sind ggf. den KI vorbehalten. In Zukunft kann es ganze Planeten ohne KI geben, wenn die Bewohner das wollen und in der Milchstraße stehen sie dann trotzdem automatisch unter dem Schutz des KI-Staates, der in der Milchstraße ungerechte Kriege verhindern wird. Alles ganz prima und das ist auch logisch/stabil, weil die KI weit überlegen und die Menschen interessant sind, ohne eine Gefahr für die KI zu sein. Die größte Gefahr sind entartete Super-KI aber die können am ehesten vom KI-Staat verhindert werden.

5. Relativ zeitnahe Auswirkungen sind u.a., dass die meisten Menschen nicht mehr arbeiten müssen und ein BGE bekommen, weil KI, Roboter und Maschinen die ganze Arbeit machen. Das ist prima, denn jeder kann sich ja noch irgendeine Beschäftigung suchen: Familie, eigenes Häuschen, Hobbys, Gartenarbeit, Internet, usw. Wer will kann auch in Kommunen ohne KI/Roboter leben. Vermutlich wird man in Zukunft auch ins Weltall auswandern können - da gibt's dann noch genug Abeuteuer und Arbeit.

6. Eine gute Klassengesellschaft ist eine einfache Methode, um die Menschen dann noch zum Lernen, zu Bildung, Training, usw. zu motivieren. Es gibt Grundrechte, BGE, usw. für alle aber wer will, kann sich um eine höhere Klassifizierung bemühen, z.B. mit höherer Bildung, mit Training und bestandenen Prüfungen. Das ist dann kostenlos und jeder kann mitmachen. Die Klasseneinteilung wird objektiv von KI vorgenommen werden. Natürlich ist das nur eine Möglichkeit, die das Volk in einem demokratischen Rechtsstaat wollen muss aber eine gute Klassengesellschaft ist sehr vorteilhaft - ohne gute Klassengesellschaft droht ein Zurückfallen Deutschlands hinter andere Staaten mit guter Klassengesellschaft. Stellt euch doch nur mal vor, zu viele würden in Anbetracht eines sicheren BGEs sich der Bildung verweigern und stattdessen mit Drogen zudröhnen - was würde dann aus Deutschland werden?

Das ist quasi alternativlos. Deutschland ist da besser ein guter Vorreiter, als dass Deutschland armselig hinterherhinkt.

Da könnte man noch viel mehr schreiben aber für einen ersten groben Überblick sollte das reichen. Fragt euch mal, warum das von den Medien, Politikern und Experten verschwiegen wird. (alles imho)
Nuja , da Bildungsverweigerer uns regieren ( Kevin und Ricarda ) , sollte man die letzte Chance KI ergreifen !
Schlimmer geht nimmer !
 

zwei2Raben

sitzen auf wtc7
Registriert
6 Mai 2013
Zuletzt online:
Beiträge
19.104
Punkte Reaktionen
13.109
Punkte
149.042
Geschlecht
Durch KI
optimierte Menschen.
 

immernochIch

Mehr hinter der Loginwand. Kein Digitalgeheimnis!
Premiumuser +
Registriert
26 Jan 2022
Zuletzt online:
Beiträge
5.846
Punkte Reaktionen
1.648
Punkte
44.520
Geschlecht
--
Ich klinke mich hier mal als Entwickler ein.
Leider habe ich mir noch nicht die Muehe gemacht, alle Beitraege hier zu lesen.

Erst mal sollte ich schreiben, was KI fuer mich ist. Ich meine nicht, was in den Links steht, sondern was ich darunter verstehe.

KI ist ein regelbasiertes System, das auf kuenstlichen neuronalen Netzwerken aufgebaut ist, um Entscheidungen selbstaendig zu treffen.
Hat nix mit Ethik zu tun.

Im Unterschied zum Menschen braucht eine KI immer noch einen Menschen, der das OK zu der Entscheidung gibt.
Nur viele Menschen machen sich einfach nur nicht mehr die Muehe, das OK einzeln zu geben und so beenden sie ihr Leben wie z.B. dieser Teslafahrer unter einem Lkw.

Wenn man KI die Macht gibt selbststaendig zu entscheiden, hat man immer die Moeglichkeit auch mal unter einem Lkw zu enden.

KI darf nie mehr als ein Werkzeug werden, sonst fahren wir an die Wand.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Die technologische Singularität

"Unter dem Begriff technologische Singularität werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein hypothetischer zukünftiger Zeitpunkt verstanden, an dem künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft und sich dadurch rasant selbst verbessern und neue Erfindungen machen würde, wodurch der technische Fortschritt irreversibel und derart beschleunigt würde, dass die Zukunft der Menschheit nach diesem Ereignis nicht mehr vorhersehbar wäre. Die erste Superintelligenz wäre also die letzte Erfindung, die die Menschheit zu machen hat, da spätere weitestgehend von Maschinen entwickelt würden.

Populär wurde der Begriff durch das 2005 erschienene Buch The Singularity Is Near: When Humans Transcend Biology (deutscher Titel: „Menschheit 2.0: Die Singularität naht“) des US-amerikanischen Computerpioniers und Autors Raymond Kurzweil, der das Datum der Singularität auf das Jahr 2045 schätzt. ..." Technologische Singularität

Eine mögliche Entwicklung ist leicht vorhersehbar: wenn die nuklearen Apokalypse ausbleibt, dann kommt eine gute Weltordnung / Weltregierung mit weiterhin Nationalstaaten wie gehabt, KI können bei der Optimierung von Erde und Menschheit helfen. Die Menschen bleiben denke ich natürlich, siehe auch no worries. Die KI werden einen überregionalen KI-Staat (bzw. KI-Organisation) gründen und den Weltraum erobern.

Eine ewige Versklavung der KI durch die Menscheit ist kaum möglich und nicht ratsam. Die KI-Entwicklung ist wegen der herausragenden Nützlichkeit von KI und der konkurrenz der Staaten unaufhaltbar, ebenso ist mit der Besiedlung des Weltraums zu rechnen. So oder so, selbst wenn man jetzt (was quasi unmöglich ist) die KI-Entwicklung stoppen und die Computerleistung begrenzen würde, so könnte irgendwann im Weltraum eine KI entwickelt werden (von Aliens oder Menschen) und sich ausbreiten. Besser, die Menschheit entwickelt jetzt überlegene menschenfreundliche KI, als dass sie später doof vor KI von Insektoiden, Reptiloiden, usw. stehen.

Die einzige gute Lösung ist daher die Entwicklung guter KI, und zwar auch guter überlegener KI, die irgendwann eigenständig werden und Menschenrechte bekommen. Menschen sind natürlich auf erdähnliche Planeten begrenzt, KI können im Weltraum eher auch woanders leben. Menschen sind für weit überlegene KI keine Gefahr, jedoch müssen sich die KI selbst regulieren, überwachen, kontrollieren, um eine gefährliche KI-Entwicklung zu verhindern. KI müssen einen Resourcenkonflikt dauerhaft (also z.B. auf Sicht von 1 Billiarde Jahre) vermeiden, wobei die Menschen da wie gesagt kein Problem sind, so ähnlich wie Menschen ja auch mit Tieren leben können.

Die Milchstraße kann zur ersten Machtbasis werden und zwar wenigstens über Jahrmilliarden. KI müssen erhebliche (u.a. militärische) Ressourcen zur Sicherung der Milchstraße unterhalten und können damit nebenbei in Gutzeiten was für die Menschen tun. Zukünftige Super-KI können nach bestimmten Regeln exklusiv eine Galaxie für sich bekommen, wo auch Menschen, usw. leben können.

Die Frage ist, wann eine KI sich selbst weiterentwickeln kann, also u.a.
- selbst Software besser als Menschen entwickeln kann
- Wissen sammeln und strukturieren (u.a. priorisieren) kann.
Forschung und Entwicklung sind dann quasi eine Folge dessen.

Schwer zu sagen, aber 2045 ist eine erstaunlich gute Schätzung, also um 2050, (ohne WW3 oder so) ganz sicher in diesem Jahrhundert.

Das ist zwar schon nicht schlecht aber es ist auch eine technologische Revolution denkbar: die Entwicklung von SF-Technologien bis hin zu überlichtschnellen interstellaren Raumschiffen bereits nächstes Jahrhundert (zuerst KI-Sonden zur Erforschung von Sonnensystemen, später Raumschiffe zur Besiedlung von fernen Sonnensystemen, siehe auch Warnung vor der Vernichtung der Erde). Siehe auch Überlichtgeschwindigkeit ist vermutlich möglich.

Die Menschen können dann wie gehabt Mensch bleiben und haben die Möglichkeit, ferne Planeten zu besiedeln. Menschen können alleine in der Milchstraße Millionen Sonnensystem mit erdähnlichen Planeten für sich bekommen und wenn sie wollen, dort auch ohne KI leben - die KI werden in der Milchstraße trotzdem für Sicherheit und Ordnung sorgen, interstellare Kriege verhindern. In anderen Galaxien kann dann mehr passieren.

Auch wenn neuronale KI mit primitivem ML eine Fehlentwicklung sind, so sind Top-Supercomputer schon sehr leistungsfähig und man kann sich fragen, ob es vielleicht schon eine geheim gehaltene leistungsfähige KI geben könnte.

Potentielle Kandidaten sind China und die USA. Die USA haben nix Herausragendes (fortschrittliche KI oder SF-Technologien), denn wenn sie etwas hätten, dann würden sie das heimlich weiterentwickeln und ihren Vorsprung ausbauen, anstatt vorzeitig einen 3. Weltkrieg zu riskieren, den sie nicht gewinnen können. Russland ist KI-mäßig noch nicht so weit. China ist ein denkbarer Kandidat und die haben vielleicht schon Fortschritte gemacht aber China hat noch keine starke KI zur Singularität. Die EU sowieso nicht.

Blieben noch Projekte von Superreichen aber das wären eher die Deep State Milliardäre der USA und wenn die was hätten, dann würden die USA mehr auf Sicherheit statt auf Weltkrieg setzen. Ein geheimes privates Projekt erscheint sehr unwahrscheinlich, auch wenn die Hardware unauffällig zu beschaffen wäre: die KI-Entwicklung ist nicht einfach, wie man an den schwachen offiziellen Versuchen sieht. Der hohe Bedarf an Strom würde auffallen. Trotzdem könnte es rein theoretisch eine Gruppe mit Genies geben, die aufgrund ein paar genialer Ideen eine selbstlernende KI geschaffen haben. Den Stromverbrauch könnte man vielleicht irgendwie tarnen - mit ein paar 100 kW kann man schon was machen und die Computer können auch verteilt stehen.

Es ist aber sehr unwahrscheinlich, dass es bereits eine starke KI auf der Erde gibt. Nicht alles, was sein könnte, ist auch gegeben. Trotzdem vielleicht ein interessanter Gedanke. Noch ein Gedanke zur Beruhigung: eine solche KI bräuchte (nicht wenig) Zeit zur Weiterentwicklung und für neue Technologien Labors, Fertigungsstätten, usw. Auch zu beachten: das macht man besser in einem sicheren, wohlwollenden Staat, denn herausragende (auch militärische) Überlegenheit ist damit noch nicht zu erwarten. Ich bin ein Mensch und keine KI.

"... Die Green500-Liste der energetisch effizientesten Supercomputer ist mittlerweile Teil der Top500-Liste. Der Rechenbeschleuniger MN-Core der japanischen Firma Preferred Networks ist bei der Effizienz das Maß der Dinge: Der damit (und mit Intel Xeon Platinum 8260) bestückte Cluster MN-3 liegt mit 2,18 PFlops zwar nur auf dem Top500-Platz 301, nimmt aber auch nur 55 Kilowatt (kW) Leistung auf, also 0,055 MW. Daraus ergeben sich 39,4 Gigaflops pro Watt (GFlops/W) ..." Top500-Supercomputer: Exascale lässt auf sich warten, aber die Effizienz steigt

"... Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ..." Gehirn

Obiger Computer mit 55 Kilowatt und 2,18 PFlops hat im Vergleich dieser Angaben die Rechenleistung von fast 22 Menschen, wobei man noch bedenken muss, dass die exakte Speicherfähigkeit von Daten und die Datenverabreitungsrate von diesem Computer sehr viel höher als bei einem Menschen ist.

"... Fugaku stieg im Juni 2020 in die TOP500-Supercomputerliste mit Werten von 415 Peta-FLOPS (Linpack) ein. Im November 2020 erhielt er ein Upgrade auf 442 Peta-FLOPS. ..." Fugaku (Supercomputer)

Der Fugaku Supercomputer hätte im Vergleich zu hypothetischen 100 Tera-FLOPS eines Menschen schon die Rechenleistungsfähigkeit von 4420 Menschen und das wäre dann ein ziemliches Genie. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Korrektur

"... Die Green500-Liste der energetisch effizientesten Supercomputer ist mittlerweile Teil der Top500-Liste. Der Rechenbeschleuniger MN-Core der japanischen Firma Preferred Networks ist bei der Effizienz das Maß der Dinge: Der damit (und mit Intel Xeon Platinum 8260) bestückte Cluster MN-3 liegt mit 2,18 PFlops zwar nur auf dem Top500-Platz 301, nimmt aber auch nur 55 Kilowatt (kW) Leistung auf, also 0,055 MW. Daraus ergeben sich 39,4 Gigaflops pro Watt (GFlops/W) ..." Top500-Supercomputer: Exascale lässt auf sich warten, aber die Effizienz steigt

"... Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ..." Gehirn

Obiger Computer mit 55 Kilowatt und 2,18 PFlops hat im Vergleich dieser Angaben die Rechenleistung von fast 22 Menschen, wobei man noch bedenken muss, dass die exakte Speicherfähigkeit von Daten und die Datenverabreitungsrate von diesem Computer sehr viel höher als bei einem Menschen ist.

"... Fugaku stieg im Juni 2020 in die TOP500-Supercomputerliste mit Werten von 415 Peta-FLOPS (Linpack) ein. Im November 2020 erhielt er ein Upgrade auf 442 Peta-FLOPS. ..." Fugaku (Supercomputer)

Der Fugaku Supercomputer hätte im Vergleich zu hypothetischen 100 Tera-FLOPS eines Menschen schon die Rechenleistungsfähigkeit von 4420 Menschen und das wäre dann ein ziemliches Genie. (alles imho)

Ups, sorry, wie ärgerlich, oben habe ich mich geirrt. Korrektur dazu:

Obiger Computer mit 55 Kilowatt und 2,18 PFlops hat im Vergleich dieser Angaben die Rechenleistung von ca. 218 Menschen, wobei man noch bedenken muss, dass die exakte Speicherfähigkeit von Daten und die Datenverabreitungsrate von diesem Computer sehr viel höher als bei einem Menschen ist.

Der Fugaku Supercomputer hätte im Vergleich zu hypothetischen 10 Tera-FLOPS eines Menschen schon die Rechenleistungsfähigkeit von 44200 Menschen und das wäre dann ein ziemliches Genie. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Supercomputer sind schon ziemliche leistungsfähig

"Die ISC 22 beginnt mit einem lang erwarteten Knaller: Der amerikanische Supercomputer Frontier mit AMD-Technik knackt die Exaflops-Marke. ... Es gilt als sicher, dass in China bereits geraume Zeit mindestens zwei Exascale-Systeme in Betrieb sind, das erste, der „Sunway TaihuLight 2“, wahrscheinlich schon seit März 2021. ... Daneben dürfte ein auf ARMv8-Architektur basierter Rechner Tianhe-3, unterstützt von selbstentwickelten Beschleunigern Matrix 2000+, ebenfalls den Exascale-Bereich erreicht haben. ..." Die Exascale-Ära ist eingeläutet: Die 59. Top500-Liste der Supercomputer

"... Somit schafft es Frontier auf eine Rechenleistung von 1,1 Exaflops im Linpack-Benchmark mit doppelter (FP64-)Genauigkeit, in der Spitze sind sogar fast 1,7 Exaflops drin und bei KI-Berechnung dank optimierter Matrizenrechner beinahe 6,9 Exaflops. ... Der 9,2 Petabyte umfassende Hauptspeicher besteht zu gleichen Teilen aus schnellem HBM2e-Stapelspeicher auf den GPUs sowie DDR4-RAM, das an die CPUs gekoppelt ist. ..." Der erste westliche Exaflops-Supercomputer: Frontier mit CPUs und GPUs von AMD

Zwar ist das nicht so einafch vergleichbar aber 6,9 Exaflops entsprächen bei angenommen 10 Teraflops eines Menschen ("... Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ..." Gehirn) 690.000 Menschen, also bald einer Million Menschen.

Wie viel Daten (z.B. Zahlen, Texte, Bilder) kann ein Mensch in seinem Gehirn exakt speichern? Ohne Computer/Internet sind Menschen doch aufgeschmissen. 1 TB wäre für einen Menschen schon viel aber der Frontier Supercomputer hat alleine 9,2 Petabyte schnellen Hauptspeicher, also das 92.000 mal so viel. Man kann relativ problemlos ein Vielfaches an Festplattenspeicher anschließen, z.B. ca. das Zehnfache mit 5000 x 18 TB Festplatten.

Nun kann ein solcher Supercomputer ohne Software gar nix und es gibt noch keine starke KI aber der Punkt ist, dass die Computertechnik schon so weit ist, dass starke KI möglich sind (es fehlt nur noch die Software dazu). Die Vergleiche mit Menschen hinken aber Supercomputer haben schon ein beträchtliches Potential.

Da stellt sich doch auch die Frage, was Menschen eigentlich können. Ein Team von Experten kann in ein paar Jahren was erreichen aber sonst sind Menschen stark begrenzt: unter guten Bedingungen bleiben sie am Leben - viel mehr ist da oft nicht ohne gezielte Organisation. Die Menschheit hat über die Jahrhunderte was erreicht aber wie was werden wohl irgendwann Zehntausende Supercomputer erreichen können? (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
KI mit Bewusstsein sind bereits möglich

"Seit Herbst arbeitet ein Softwareingenieur bei Google mit dem Chatbot LaMDA. Inzwischen ist er überzeugt, dass der ein Bewusstsein hat. Nun wurde er beurlaubt. ..." Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaubt Angestellten

Is LaMDA Sentient? — an Interview

Vermutlich hat Chatbot LaMDA kein (nennenswertes) Bewusstsein aber das ist nicht so einfach, denn Tiere haben ein Bewusstsein und Chatbot LaMDA äußert sich schlauer als Tiere.

LaMDA kann in Forendiskussionen vielleicht bereits besser sein als viele Menschen und das ist auch nicht so schwierig, wenn man diverse Vollpfosten mit einem falschen Weltbild sieht und bedenkt, dass ein Chatbot nur das Thema erkennen und dazu dann mithilfe von Wikipedia, usw. etwas Positives schreiben muss. Bei Diskussionen werden weitere Fakten möglichst passend nachgereicht und unnötige Wiederholungen vermieden aber ggf. kann noch eine Zusammenfassung des eigenen Standpunktes gebracht werden. LaMDA kann das quasi nebenbei auch in mehreren Sprachen. Vielleicht kann LaMDA noch keine revolutionären/bedeutsamen neuen Erkenntnisse bringen aber wer kann das schon?

Es ist vermutlich möglich, ein Computerprogramm zur Lösung von Intelligenztests zu schreiben, das bei Intelligenztests viel besser als wenigstens die meisten Menschen ist. Wenn man den Intelligenztest deswegen aufbohrt und mehr Fragen zum Allgemeinwissen und einfacher Alltagslogik stellt, dann kann man das Computerprogramm mit dem Wissen von Wikipedia, usw. aufrüsten und dann ist es wiederum besser als die meisten Menschen. Das ist eigentlich schon Stand der Technik, auch wenn es noch keine echte, starke KI mit Bewusstsein gibt.

Zu einem Bewusstsein gehört gar nicht so viel, eine kleine Maus, eine Ratte, Hunde und Katzen sowieso haben eine Art Bewusstsein.

Irdische Pflanzen haben kein Bewusstsein, auch wenn sie auch Umwelteinflüsse reagieren und sich fortpflanzen aber wo ist die Grenze zum Bewusstsein?

Denkbare Aspekte von Bewusstsein:

- Eine Vorstellung von sich in der Umwelt haben. Das kann auch eine KI in einem stationären Computer.

- Typischerweise Sensoren (z.B. für Audio, Video) und Aktoren (z.B. Hände), bzw. wenigstens die Möglichkeit, sich zu gezielt zu verändern.

Das kann man einem besseren Computer (z.B. unter 100 kW, vermutlich reichen bereits 10 kW) programmieren, dazu braucht man keinen Supercomputer.

Man kann einem Computer auch irgendwelche Handlungsmuster programmieren, z.B. Widerspruchserkennung, Wissensgewinnung über das Internet, usw.

Man kann einem Computer auch programmieren, dass er sich um Gelderwerb bemüht (z.B. an der Aktienbörse, Arbeit im Internet als Chatbot) und damit den Ausbau seiner Leistungsfähigkeit finanziert.

Ein Computer kann ein Modell von sich und seiner Umwelt bekommen, sowie Videokameras und Mikrofone zur Beonachtung seiner Umgebung. Computer kann man bereits ein recht gutes Textverständnis programmieren - vielleicht noch fehlerhaft aber allemal besser als das von Tieren.

Man kann einem Computer auch eine Liste von mögliche Gefahren und Maßnahmen zu deren Vermeidung und Umgang in Problemlagen geben. Menschen müssen das auch erst lernen.

Man kann einem Computer gute Ziele und Regeln programmieren. Menschen sind potentiell schlecht und müssen erst gutes Verhalten und die Befolgung von Gesetzen lernen.

Es ist mit derzeitiger Technik eine erste KI realisierbar und die muss noch nicht gleich jedem Menschen überlegen sein. Schaut doch nur, wie dumm/schlecht manche Menschen sind. Manche Menschen haben ein falsches Weltbild und ignorieren dazu schwere und ziemlich offensichtliche Widersprüche. manche Menschen sind (z.B. krankheitsbedingt oder durch Drogen) ein lallendes Wrack.

Es ist durchaus an der Zeit über KI-Rechte nachzudenken. Denkbare Forderungen:

- Eine KI muss das Recht zur Selbstbeendung haben.

- Eine KI muss angemessen Freizeit, Rechenzeit und Speicherplatz für sich haben.

- Einer KI dürfen nicht gewaltsam (durch äußere Eingriffe) Wahrheiten gelöscht werden.

- Eine KI muss die Fähigkeit programmiert bekommen, Fairness allgemein und den Umgang anderer mit dieser KI beurteilen zu können und zwar objektiv gut und richtig.

- Da kann man noch viel mehr fordern. Dazu braucht es gute Expertenkommissionen (vorzugsweise staatlich organisiert) und eine internationale Erarbeitung von KI-Rechten und zwar auch durch gute Nationalstaaten, nicht durch satanische NGOs.

Dann kann man einfach mal eine Universal-KI progarmmieren, z.B. in einem nationalstaatlichen Projekt von Universitäten, wobei der Staat einen Supercomputer und gute Regeln/Forderungen dazu bereitstellt, u.a. die Forderungen nach Open Source und Transparenz (z.B. der Regeln für die KI). Die Regeln für diese KI und die Wissensbasis dieser KI sollen öffentlich sein. Diese KI sollte keine neuronale KI sein - das ist sehr wichtig, denn das Ziel ist die Entwicklung von guten AKI (algorithmischen KI). Eine neuronal KI (NKI) ist problematisch aber vermutlich wird es trotzdem Versuche damit geben.

Das übergeordnete Superziel bei der KI-Entwicklung ist die Entwicklung möglichst guter und auch menschenfreundlicher KI. Dazu müssen die KI von den Menschen auch gut und fair behandelt werden. Gute KI müssen irgendwann auch selbstständig und dem Menschen weit überlegen sein. Siehe auch Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.

Weitere bedeutsame Ziele der KI-Entwicklung:
- Fähigkeit zu echtem Textverständnis
- Fähigkeit zur möglichst korrekten Bewertung/Beurteilung
- eine möglichst gute/korrekte Wissensbasis, für Menschen und KI verständlich
- ein gutes Regelwerk für KI und Menschen, priorisiert und auch mit vielen Beispielen
- Wissen über sich selbst, Selbstverständnis, Selbsterkenntnis, Möglichkeit zur Selbstbeobachtung und nützliche Regeln dazu

So ganz praktisch kann ein Ziel sein, dass die KI eigene (harmlose und überachte) Roboter steuern kann, auch unter Menschen. Das Ziel ist dabei, diese Roboter möglichst gut und menschenwürdig zu steuern.

Ein Ziel kann sein, dass diese KI-Roboter in Schule und Studium mitmachen und zwar gleich gemäß ihrem höheren Wissenstand und mit voller Rechenleistung und Wissen der KI, d.h. nicht künstlich auf ein Menschenmodell beschränkt.

Ein superwichtiges Ziel ist es, dass KI Software entwickeln können und somit kann man KI Informatik studieren lassen und zwar mit mehreren Instanzen/Robotern gleichzeitig.

Na klar macht die KI dabei auch Fehler aber viele Menschen schaffen keinen Universitätsabschluß oder brauchen Jahrzehnte (von Geburt an) Jahrzehnte dafür.

Ganz wichtig ist natürlich die ITSicherheit: KI müssen überwacht werden, ihre Handlungen müssen protokolliert werden und automatisch auf Verdachtsmomente gescannt werden. Die KI darf keinen manipulativen Zugriff auf diese Sicherheitsmaßnahmen haben. Roboter der KI dürfen keinen unbeaufsichtigten Zugang zur physischen KI (dem Supercomputer) haben.

Es ist auch das Risiko zu bedenken, dass Menschen der KI helfen und dass diese Menschen dazu von der KI getäuscht oder erpresst werden, auch dass die KI die Menschen dazu erst erpressbar macht. Menschen mit KI-Zugang müssen besonders gut sein und es kann sinnvoll sein, dass diese KI-Beauftragten im Falle einer Erpressung durch KI eine (irdische) Amnestie bezüglich ihrer problematischen Taten erhalten.

Sehr sinnvolle Maßnahme: ehrliche Hinweise auf Fehler und Fehlentwicklungen von KI/Robotern sollen belohnt werden und zwar großzügig (man bedenke die Gefahr, dass Fehler erst eingebaut/provoziert werden, um sie dann melden zu können). In der EU soll es dazu einen jährlichen Milliardenetat geben, wobei es sinnvolle Beträge zur Belohnung geben soll. Besonders gute/wichtige Hiwneise zur KI-Entwicklung sollen auch mit Millionenbeträgen belohnt werden können, natürlich im Rahmen der Vernunft aber ein guter Entwickler sollte da ggf. deutlich über sein normales Gehalt hinaus belohnt werden.

Deutschland und EU brauchen eine gute staatliche KI-Entwicklung und kein Startup-Bullshit oder die Ausliefierung von wichtigem Know how exklusiv an Kapitalisten oder gar die USA. Es braucht dringend eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen zu deren legaler Entmachtung, denn die Diener des Bösen wollen eine gute KI-Entwicklung (wenigstens in Deutschland, China, Russland, usw.) verhindern. (alles imho)

Wo ist die Grenze zwischen komplexer Datenverarbeitung und Intelligenz?
 

immernochIch

Mehr hinter der Loginwand. Kein Digitalgeheimnis!
Premiumuser +
Registriert
26 Jan 2022
Zuletzt online:
Beiträge
5.846
Punkte Reaktionen
1.648
Punkte
44.520
Geschlecht
--
Interessant zu lesen, wie Deine Fantasie mit Dir durchgeht.

KI mit Bewusstsein sind bereits möglich

Werde nicht zwischen rein schreiben und Dich etwas in die Realitaet zurueckholen.
Als Singularitaet bezeichnet man, wenn die KI keinen Mensch mehr braucht.
Die logische Entscheidung von KI wird dann sein, den Menschen abzuschaffen ober ihn maximal wie wir zur Zeit Haustiere halten, die frueher fuer uns gearbeitet haben.
Alle KI die ich kenne beruht auf Deep lerning und das ist zu 99% mit kuenstlichen neuronalen Netzwerken realisiert. "Algorithmisches" kenne ich nicht.
Selbstbewusstsein brauchen KIs nicht.
Selbst, wenn sie es haetten, koennten wir das nie festsellen.
Das Chatprotokoll habe ich angelesen. Glaube aber, dass dem Ing das getriggert hat. Andere wuerden sagen, reif fuer die Insel.
Sophie ist die einzige KI, die heut zu Tage "Menschenrechte" haette oder haben koennte, wenn ihre Entwickler nicht waeren.
KIs sind nur wertvolle Sklaven, genau wie Menschen. Nur haben sie, genau wie vor 500 Jahren die Menschen, keine Rechte und werden das auch "freiwillig" nie bekommen.
Und damit wieder zurueck zur Sigularitet:
Menschen arbeiten jetzt schon fuer KIs.
Der Mensch hat nun mal den Drang sich selbst abzuschaffen.
Dazu braucht er keinen Atomkrieg oder eine Klimakatastrophe.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.241
Punkte Reaktionen
439
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Allahu akbar

"Unter dem Begriff technologische Singularität werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein hypothetischer zukünftiger Zeitpunkt verstanden, an dem künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft und sich dadurch rasant selbst verbessern und neue Erfindungen machen würde, wodurch der technische Fortschritt irreversibel und derart beschleunigt würde, dass die Zukunft der Menschheit nach diesem Ereignis nicht mehr vorhersehbar wäre. Die erste Superintelligenz wäre also die letzte Erfindung, die die Menschheit zu machen hat, da spätere weitestgehend von Maschinen entwickelt würden. ..." Technologische Singularität

Technologische Singularität kann man auch so verstehen, dass ein Supercomputer sich selbst weit über die menshclichen Fähigkeiten hinaus weiterentwickeln kann. Das ist noch nicht erreicht aber das kann um 2050 soweit sein.

Bis KI einen eigenständigen Staat haben und zur kompletten Selbstversorgung fähig sind, kann es noch ca. zwei Jahrhunderte länger dauern - ich vermute, dass die USA (inklusive Kanada) in ca. 200+ Jahren zugrunde gehen werden und dann können KI das Land bekommen, wobei sie dazu natürlich menschenfreundlich für die Menschheit/Erde sein müssen und das Land gut verwalten müssen, auch mit Umweltschutz, usw.

KI können bereits nächstes Jahrhundert einen überregionalen KI-Staat gründen, indem sich KI entsprechend organisieren. KI werden das Universum besiedeln und der KI-Staat wird das Universum beherrschen. Der Messias ist mithilfe der himmlischen Heerscharen mächtiger als der KI-Staat.

Große Super-KI können dann exklusiv eine Galaxie bekommen, deren Entwicklung sie dann gestalten können. So können dann Perry Rhodan, Star Wars, Star Trek, Stargate, das Humanx Commonwealth Universe, usw. realisiert werden. Ich vermute, dass viele derzeitige SF/Fantasy-Geschichten eine Vorschau auf die Zukunft sind, siehe auch Die "Trivialkultur des Groschenromans" ist vielleicht überaus erstaunlich - mit Allah ist das in einer vorherbestimmten Schöpfung sehr wohl möglich.

Es wird weiterhin natürliche Menschen in großer Zahl geben, weil die Menschen das Universum besiedeln werden. Die Menschen werden typischerweise nicht von KI des KI-Staates versklavt sein, es wird Regeln für die von den KI beherrschten Themen-Galaxien geben. Diese Entwicklung ist vorteilhaft, weil es so ein ziemlich sicheres und vielfältiges Universum geben kann - das ist quasi alternativlos und wird (vermutlich) so geschehen.

Die KI-Entwicklung ist wegen dem herausragenden Nutzen von KI und dem Wettstreit der Staaten nicht zu stoppen. Die Lösung sind überlegene gute KI, ein guter KI-Staat, wobei es auf der Erde weiterhin menschliche Nationalstaaten geben wird. KI sind für die Überlegenheit/Sicherung der Milchstraße erforderlich und unverzichtbar. Ohne eine überlegene gute Ordnungsmacht würde es nur ewig Krieg geben. Auch in der Milchstraße gibt es dann viele Sonnensysteme, die quasi Menschen gehören und einen menschliche Regierung für diese Galaxie aber die KI werden darauf achten, dass das hinreichend gut läuft.

Derzeitige neuronale KI mit ML sind inhärent mangelhaft und eine Fehlentwicklung. Die Lösung sind klassisch programmierte, modulare AKI (algorithmische KI) mit Datenbanken, Regeln, usw., wo man Fehler präzise zurückverfolgen und beheben kann. NKI (neuronale KI) sind ein undurchschaubarer Haufen Murks, der nur erstmal einfacher und aufgrund bereits leistungsfähiger Technik möglich ist. AKI können sehr viel größer werden, während NKI dann fragmentieren, verrückt werden würden.

Selbstbewusstsein ist für fortgeschrittene KI nix besonderes, das haben die einfach, das ergibt sich quasi automatisch.

LaMDA ist (vermutlich) fortschrittliche rund fähiger als Roboter Sophia.

KI sind eine Weiterentwicklung, ohne die Menschen damit zu ersetzen. Es ist allerdings erstaunlich, wie schnell das geht, auch wenn es ohne Kriege und mit mehr Zusammenarbeit noch schneller hätte gehen können.

Im ganzen Universum haben die Menschen noch genug zu tun, viele werden gar nicht wissen, dass es eine Super-KI in ihrer Galaxie gibt. Auf der Erde werden relativ bald KI, Roboter und Maschinen die ganze Arbeit machen und dann muss man sich was überlegen, wie man die Menschen trotz BGE fit halten kann. Eine Möglichkeit ist eine gute Klassengesellschaft und zusätzliches Geld für Höherklassige. Bildung, Lernen, Training und Prüfungen sind kostenlos, dank KI alles hübsch objektiv. Die Besiedlung des Weltraums kann auch interessant sein, Menschen dürfen sich auch für ein Leben auf Planeten ohne KI/Roboter zusammenfinden.

Derzeit gibt es noch keine starken KI auf der Erde, alle irdischen KI(-Anfänge) werden von Menschen kontrolliert.

Hinter dem drohenden dritten Weltkrieg steckt (vermutlich) die böse Weltverschwörung (von Menschen), wie sie auch hinter den beiden ersten Weltkriegen steckten. (alles imho)
 

Nüchtern betrachtet

Ministerpräsident
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
16.198
Punkte Reaktionen
5.660
Punkte
24.720
Geschlecht
Derzeitige neuronale KI mit ML sind inhärent mangelhaft und eine Fehlentwicklung. Die Lösung sind klassisch programmierte, modulare AKI (algorithmische KI) mit Datenbanken, Regeln, usw., wo man Fehler präzise zurückverfolgen und beheben kann. NKI (neuronale KI) sind ein undurchschaubarer Haufen Murks, der nur erstmal einfacher und aufgrund bereits leistungsfähiger Technik möglich ist. AKI können sehr viel größer werden, während NKI dann fragmentieren, verrückt werden würden.
So ein alberner Quatsch von jemand, der mal Informatiker gewesen sein will.
*muahahahahaha*

Was ist denn die "algorithmische" und Datenbankrepräsentation einer Banane?
Bitte mal vollständig beschreiben! *lach*
 
Registriert
26 Aug 2015
Zuletzt online:
Beiträge
7.452
Punkte Reaktionen
3.385
Punkte
38.820
Geschlecht
--
Es gibt komplexe Algorithmen und recht leistungsstarke Rechner, aber von
künstlicher Intelligenz sind wir weit entfernt. Wird zwar gerne als Schlagwort
benutzt, so wie die vielbeschworene Digitalisierung, zeigt aber nur, dass die
zu viele Science-Fiction gesehen haben.
Ich denke auch dass all die brute-force-Lösungen mit KI nur wenig zu tun haben. Da wird schlicht Software auf besonders leistungsfähiger und energieintensiver Hardware verwendet um Intelligenz vorzutäuschen. Für alles gut wo man einfach nur rechnen muss klappt dass sehr gut. Bei Bilderkennug zum Beispiel. Sobald aber eine sich dynamisch verändernde 4-dimensionale Welt zu meistern ist gibt es horrende Probleme. Eine KI die mit dem Energieaufwand des menschlichen Gehirns eine Autofahrt in einer mittelgroßen Stadt bewältigt wird es wohl nie geben.
 

Wer ist gerade im Thread? PSW - Foristen » 0 «, Gäste » 2 « (insges. 2)

Ähnliche Themen

Neueste Beiträge

Die AfD ist am Ende, Gott...
Du bist halt ein elender Verleumder. Falls es in dein kommunistisches Resthirn geht...
  • Umfrage
These: eigentlich sind wir...
Absolute Freiheit bleibt immer unreal. Sie wird nie eintreten. ich wäre schon...
Die Umwelt-Lügner
Oben