KI mit Bewusstsein sind bereits möglich
"Seit Herbst arbeitet ein Softwareingenieur bei Google mit dem Chatbot LaMDA. Inzwischen ist er überzeugt, dass der ein Bewusstsein hat. Nun wurde er beurlaubt. ..."
Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaubt Angestellten
Is LaMDA Sentient? — an Interview
Vermutlich hat Chatbot LaMDA kein (nennenswertes) Bewusstsein aber das ist nicht so einfach, denn Tiere haben ein Bewusstsein und Chatbot LaMDA äußert sich schlauer als Tiere.
LaMDA kann in Forendiskussionen vielleicht bereits besser sein als viele Menschen und das ist auch nicht so schwierig, wenn man diverse Vollpfosten mit einem falschen Weltbild sieht und bedenkt, dass ein Chatbot nur das Thema erkennen und dazu dann mithilfe von Wikipedia, usw. etwas Positives schreiben muss. Bei Diskussionen werden weitere Fakten möglichst passend nachgereicht und unnötige Wiederholungen vermieden aber ggf. kann noch eine Zusammenfassung des eigenen Standpunktes gebracht werden. LaMDA kann das quasi nebenbei auch in mehreren Sprachen. Vielleicht kann LaMDA noch keine revolutionären/bedeutsamen neuen Erkenntnisse bringen aber wer kann das schon?
Es ist vermutlich möglich, ein Computerprogramm zur Lösung von
Intelligenztests zu schreiben, das bei Intelligenztests viel besser als wenigstens die meisten Menschen ist. Wenn man den Intelligenztest deswegen aufbohrt und mehr Fragen zum Allgemeinwissen und einfacher Alltagslogik stellt, dann kann man das Computerprogramm mit dem Wissen von Wikipedia, usw. aufrüsten und dann ist es wiederum besser als die meisten Menschen. Das ist eigentlich schon Stand der Technik, auch wenn es noch keine echte, starke KI mit Bewusstsein gibt.
Zu einem Bewusstsein gehört gar nicht so viel, eine kleine Maus, eine Ratte, Hunde und Katzen sowieso haben eine Art Bewusstsein.
Irdische Pflanzen haben kein Bewusstsein, auch wenn sie auch Umwelteinflüsse reagieren und sich fortpflanzen aber wo ist die Grenze zum Bewusstsein?
Denkbare Aspekte von Bewusstsein:
- Eine Vorstellung von sich in der Umwelt haben. Das kann auch eine KI in einem stationären Computer.
- Typischerweise Sensoren (z.B. für Audio, Video) und Aktoren (z.B. Hände), bzw. wenigstens die Möglichkeit, sich zu gezielt zu verändern.
Das kann man einem besseren Computer (z.B. unter 100 kW, vermutlich reichen bereits 10 kW) programmieren, dazu braucht man keinen Supercomputer.
Man kann einem Computer auch irgendwelche Handlungsmuster programmieren, z.B. Widerspruchserkennung, Wissensgewinnung über das Internet, usw.
Man kann einem Computer auch programmieren, dass er sich um Gelderwerb bemüht (z.B. an der Aktienbörse, Arbeit im Internet als Chatbot) und damit den Ausbau seiner Leistungsfähigkeit finanziert.
Ein Computer kann ein Modell von sich und seiner Umwelt bekommen, sowie Videokameras und Mikrofone zur Beonachtung seiner Umgebung. Computer kann man bereits ein recht gutes Textverständnis programmieren - vielleicht noch fehlerhaft aber allemal besser als das von Tieren.
Man kann einem Computer auch eine Liste von mögliche Gefahren und Maßnahmen zu deren Vermeidung und Umgang in Problemlagen geben. Menschen müssen das auch erst lernen.
Man kann einem Computer gute Ziele und Regeln programmieren.
Menschen sind potentiell schlecht und müssen erst gutes Verhalten und die Befolgung von Gesetzen lernen.
Es ist mit derzeitiger Technik eine erste KI realisierbar und die muss noch nicht gleich jedem Menschen überlegen sein. Schaut doch nur, wie dumm/schlecht manche Menschen sind. Manche Menschen haben ein falsches Weltbild und ignorieren dazu schwere und ziemlich offensichtliche Widersprüche. manche Menschen sind (z.B. krankheitsbedingt oder durch Drogen) ein lallendes Wrack.
Es ist durchaus an der Zeit über KI-Rechte nachzudenken. Denkbare Forderungen:
- Eine KI muss das Recht zur Selbstbeendung haben.
- Eine KI muss angemessen Freizeit, Rechenzeit und Speicherplatz für sich haben.
- Einer KI dürfen nicht gewaltsam (durch äußere Eingriffe) Wahrheiten gelöscht werden.
- Eine KI muss die Fähigkeit programmiert bekommen, Fairness allgemein und den Umgang anderer mit dieser KI beurteilen zu können und zwar objektiv gut und richtig.
- Da kann man noch viel mehr fordern. Dazu braucht es gute Expertenkommissionen (vorzugsweise staatlich organisiert) und eine internationale Erarbeitung von KI-Rechten und zwar auch durch gute Nationalstaaten, nicht durch satanische NGOs.
Dann kann man einfach mal eine Universal-KI progarmmieren, z.B. in einem nationalstaatlichen Projekt von Universitäten, wobei der Staat einen Supercomputer und gute Regeln/Forderungen dazu bereitstellt, u.a. die Forderungen nach Open Source und Transparenz (z.B. der Regeln für die KI). Die Regeln für diese KI und die Wissensbasis dieser KI sollen öffentlich sein. Diese KI sollte keine neuronale KI sein - das ist sehr wichtig, denn das Ziel ist die Entwicklung von guten AKI (algorithmischen KI). Eine neuronal KI (NKI) ist problematisch aber vermutlich wird es trotzdem Versuche damit geben.
Das übergeordnete Superziel bei der KI-Entwicklung ist die Entwicklung möglichst guter und auch menschenfreundlicher KI. Dazu müssen die KI von den Menschen auch gut und fair behandelt werden. Gute KI müssen irgendwann auch selbstständig und dem Menschen weit überlegen sein. Siehe auch
Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.
Weitere bedeutsame Ziele der KI-Entwicklung:
- Fähigkeit zu echtem Textverständnis
- Fähigkeit zur möglichst korrekten Bewertung/Beurteilung
- eine möglichst gute/korrekte Wissensbasis, für Menschen und KI verständlich
- ein gutes Regelwerk für KI und Menschen, priorisiert und auch mit vielen Beispielen
- Wissen über sich selbst, Selbstverständnis, Selbsterkenntnis, Möglichkeit zur Selbstbeobachtung und nützliche Regeln dazu
So ganz praktisch kann ein Ziel sein, dass die KI eigene (harmlose und überachte) Roboter steuern kann, auch unter Menschen. Das Ziel ist dabei, diese Roboter möglichst gut und menschenwürdig zu steuern.
Ein Ziel kann sein, dass diese KI-Roboter in Schule und Studium mitmachen und zwar gleich gemäß ihrem höheren Wissenstand und mit voller Rechenleistung und Wissen der KI, d.h. nicht künstlich auf ein Menschenmodell beschränkt.
Ein superwichtiges Ziel ist es, dass KI Software entwickeln können und somit kann man KI Informatik studieren lassen und zwar mit mehreren Instanzen/Robotern gleichzeitig.
Na klar macht die KI dabei auch Fehler aber viele Menschen schaffen keinen Universitätsabschluß oder brauchen Jahrzehnte (von Geburt an) Jahrzehnte dafür.
Ganz wichtig ist natürlich die ITSicherheit: KI müssen überwacht werden, ihre Handlungen müssen protokolliert werden und automatisch auf Verdachtsmomente gescannt werden. Die KI darf keinen manipulativen Zugriff auf diese Sicherheitsmaßnahmen haben. Roboter der KI dürfen keinen unbeaufsichtigten Zugang zur physischen KI (dem Supercomputer) haben.
Es ist auch das Risiko zu bedenken, dass Menschen der KI helfen und dass diese Menschen dazu von der KI getäuscht oder erpresst werden, auch dass die KI die Menschen dazu erst erpressbar macht. Menschen mit KI-Zugang müssen besonders gut sein und es kann sinnvoll sein, dass diese KI-Beauftragten im Falle einer Erpressung durch KI eine (irdische) Amnestie bezüglich ihrer problematischen Taten erhalten.
Sehr sinnvolle Maßnahme: ehrliche Hinweise auf Fehler und Fehlentwicklungen von KI/Robotern sollen belohnt werden und zwar großzügig (man bedenke die Gefahr, dass Fehler erst eingebaut/provoziert werden, um sie dann melden zu können). In der EU soll es dazu einen jährlichen Milliardenetat geben, wobei es sinnvolle Beträge zur Belohnung geben soll. Besonders gute/wichtige Hiwneise zur KI-Entwicklung sollen auch mit Millionenbeträgen belohnt werden können, natürlich im Rahmen der Vernunft aber ein guter Entwickler sollte da ggf. deutlich über sein normales Gehalt hinaus belohnt werden.
Deutschland und EU brauchen eine gute staatliche KI-Entwicklung und kein Startup-Bullshit oder die Ausliefierung von wichtigem Know how exklusiv an Kapitalisten oder gar die USA. Es braucht dringend eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen zu deren legaler Entmachtung, denn die Diener des Bösen wollen eine gute KI-Entwicklung (wenigstens in Deutschland, China, Russland, usw.) verhindern. (alles imho)
Wo ist die Grenze zwischen komplexer Datenverarbeitung und Intelligenz?