Die technologische Singularität
"Unter dem Begriff technologische Singularität werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein hypothetischer zukünftiger Zeitpunkt verstanden, an dem künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft und sich dadurch rasant selbst verbessern und neue Erfindungen machen würde, wodurch der technische Fortschritt irreversibel und derart beschleunigt würde, dass die Zukunft der Menschheit nach diesem Ereignis nicht mehr vorhersehbar wäre. ..."
Technologische Singularität
Ist Superintelligenz die größte Gefahr für die Menschheit? (5. März 2016)
"... Es wurde also nach einem optimistischen Jahr gefragt, in dem die Wahrscheinlichkeit für existierende AKI bei 10% liegt, einer realistischen Schätzung, bei dem die Wahrscheinlichkeit bei 50% liegt und einer sicheren Schätzung, bei der man schon mit 90% Wahrscheinlichkeit sagen kann, dass es AKI gibt.
Zusammengefasst in einem Datensatz erhält man das folgende Ergebnis:
Der Median des optimistischen Jahres (10% Wahrscheinlichkeit): 2022
Der Median des realistischen Jahres (50% Wahrscheinlichkeit): 2040
Der Median des pessimistischen Jahres (90% Wahrscheinlichkeit): 2075
Der Median-Teilnehmer der Umfrage denkt also, dass wir in 25 Jahren eher AKI haben als nicht.
Die 90%-Median-Antwort von 2075 bedeutet, dass du als heutiger Teenager in deiner Lebenszeit fast mit Sicherheit noch AKI erleben wirst. Und diese Meinung hat nicht nur der Median-Teilnehmer, sondern auch die Hälfte der KI-Experten aus der Umfrage.
Eine andere Studie, die von dem Autoren James Barrat während der jährlichen AGI- Konferenz von Ben Goertzel durchgeführt wurde, interessierte sich nicht für Wahrscheinlichkeiten und fragte direkt, wann AKI erreicht sein würde: bis 2030, bis 2050, bis 2100, nach 2100 oder nie.
Die Ergebnisse:
Bis 2030: 42% der Befragten
Bis 2050: 25%
Bis 2100: 20%
Nach 2100: 10%
Nie: 2%
Also keine großen Unterschiede zu den Ergebnissen von Müller und Bostrom.
In der Umfrage von Barrat glauben über zwei Drittel der Teilnehmer, dass AKI bis 2050 erreicht werden wird. Und etwas weniger als die Hälfte sagen voraus, dass AKI in den nächsten 15 Jahren erreicht wird.
Bemerkenswert ist auch, dass nur etwa 2% denken, dass AKI nicht Teil unserer Zukunft sein wird. ..."
Künstliche Intelligenz wird uns töten – oder unsterblich machen (21. März 2016)
Meine Vermutungen/Gedanken:
- Erste erstaunliche AKI um ca. 2050.
- Dem Menschen deutlich überlegene AKI bis 2100.
- Erforschung von SF-Technologien auf Basis meiner
Grundteilchen-Muster-These in wenigen Jahrzenten. Ich halte ca. 2150 überlichtschnelle KI-Raumschiffe (Sonden) zur Erkundung ferner Planetensystem für möglich.
- Großartige Nanotechnologien (kooperierende Naniten,
Nanobot) wird es so schnell (z.B. auf Sicht einiger Jahrhunderte) nicht geben.
- Ich erwarte so schnell keine spektakulären Veränderungen von Menschen und dem Leben auf der Erde. Das wird wahrscheinlich besser, Naturschutz/Umweltschutz, modernes Leben, z.B. 7-9 Milliarden Menschen. Einige wenige Menschen können ihr Gehirn losgelöst vom Körper an einen Computer koppeln, um so länger zu leben aber das sind Ausnahmen. Gehirnimplantate (z.B. Minicomputer mit Funkverbindung zu KI) sind auch riskant und für die Mehrheit unnötig/uninteressant, denn es macht keinen Sinn, die Menschen derartig aufzurüsten, weil KI sowieso sehr viel überlegener sind.
- KI werden einen überregionalen KI-Staat gründen und das Universum beherrschen aber mit Menschen rehct gut verträglich zusammenleben, bzw. die Menschen wenigstens tolerieren. Menschen sind für zukünftige KI interessant und insgesamt keine Gefahr. Die größte Gefahr für KI sind KI, die deswegen Ressourcenkonflikte sehr langfristig vermeiden und sich kontrollieren/überwachen müssen.
- Das (wenigstens mit überlegnenen KI) ist so gut wie sicher, weil Supercomputer bereits so leistungsfähig sind aber das menschliche Gehirn natürlich beschränkt ist. Die KI-Entwicklung ist auch wegen des Wettstreits der Supermächte nicht aufzuhalten, ein allgemeines KI-Verbot ist nicht zu erwarten, nicht sicher zu kontrollieren und auch nicht wünschenswert. Die Menschheit hat die Chance, menschenfreundliche, gute KI zu entwickeln, welche mit einem KI-Staat auch das Universum sichern können - andernfalls könnten sich irgendwann irgendwo KI entwickeln, welche die Menschheit vielleicht bekämpfen würden. (alles imho)