OP
- Registriert
- 23 Jan 2019
- Zuletzt online:
- Beiträge
- 3.396
- Punkte Reaktionen
- 480
- Punkte
- 84.052
- Website
- www.wallstreet-online.de
- Geschlecht
- Thread Starter
- #621
Irren ist menschlich - AKI können besser sein
Es ist wirklich super einfach: KI werden irgendwann besser als Menschen sein, Supercomputer sind dazu schon leistungsfähig genug, es fehlt nur noch die Software und das ist nur noch eine Frage der Zeit.
Noch gibt es im Diesseits keine echten/starken KI aber es wird sie vermutlich shcon dieses Jahrhundert geben, vielleicht schon um ca. 2050, wobei erste KI dazu nur erstaunlich fähig sein müssen und noch nicht in allem besser als jeder Mensch. Man bedenke jedoch, dass derzeitige KI (die noch keine echten/starken KI sind) in Teilbereichen schon leistungsfähiger als viele Menschen sein können.
Menschen sind dagegen beschränkt (ca. 3 Pfund Gehirn) und prinzipiell weitgehend ausgereift (die Stärke der Menschen liegt in Zusammenarbeit, größere Menschen und größere Gehirne wären problematisch/ungünstig und sind wegen moderner Technik unnötig) - es kann einige Genies geben aber auch die können mit zukünftigen KI nicht mithalten, KI werden dem Menschen tausendfach und vermutlich millionenfach überlegen sein, es kann in Zukunft KI von Planetengröße geben (z.B. in Millionen Jahren), einige KI werden vielleicht sogar Kubiklichtjahre groß sein (das kann noch dauern, z.B. Milliarden oder Billionen Jahre).
Zukünftige Super-KI werden keine NKI (ML-trainierte neuronale Misthaufen) sein, sondern AKI, also gezielt programmierte KI mit Algorithmen, Modulen (z.B. für Simulation, Beweertung, Entscheidungsfindung, Wissenserweiterung, usw.), Regeln, Datenbanken, usw. Es ist quasi völlig ausgeschlossen, dass zukünftige große Super-KI maßgeblich auf Basis neuronaler Netze funktionieren könnten, vielleicht haben die nicht mal ein neuronales Modul, weil das einfach zu schlecht wäre und nicht notwendig ist.
Überdurchschnittlich gebildete und intelligente Menschen, die einfachste Zusammenhänge nicht kapieren wollen (ja, sie wollen es nicht kapieren, es sind Ignoranten, die aus Narzissmus bei ihrem falschen Weltbild bleiben wollen) zeigen, wie unfassbar mangelhaft/fehlerhaft neuronale Netze und menschliche Gehirne sein können. Ignoranten können sogar irgendwie kurz verstanden haben, dass sie sich irren und falsch liegen aber sie denken/schreiben weiter Blödsinn, weil sie so schlecht und narzisstisch sind, weil sie so ein falsches Weltbild haben. Es gibt Menschen, die sind völlig unbelehrbar, die führen sich über Jahre öffentlich mit Bullshit vor. Manche folgen dem Mainstream und schweigen dann vielleicht zu ihren Irrtümern, wenn auch der Mainstream diese Irrtümer als solche benennt. Andere denken irgendwelchen Blödsinn auch gegen den Mainstream.
"... Errare humanum est ist eine lateinische Redewendung, die in dieser Form jedoch nicht vollständig wiedergegeben ist. Vollständig lautet der Ausspruch wie folgt: „Errare (Errasse) humanum est, sed in errare (errore) perseverare diabolicum.“ (Hieronymus; Seneca, Epistulae morales VI,57,12; Cicero, Orationes Philippicae 12,2), was wie folgt übersetzt wird: "Irren ist menschlich, aber auf Irrtümern zu bestehen ist teuflisch." ..." errare humanum est
Bei "teuflisch" ist da eher an Satan zu denken und nicht an den Höllenchef, der vermutlich ziemlich schlau und klug ist, der auch Allah dient.
Ein prinzipieller Algorithmus für KI ist:
- Kapazität (Rechenleistung, Speicher, Energie) möglichst sinnvoll einteilen/verwenden.
- Umgebung mit Sensoren erfassen und diese Daten sinnvoll aufbereiten.
- Informationen aus dem Internet (Nachrichten, TV, usw. ...) holen und Wichtiges/Interessantes speichern.
- Aufgaben/Probleme lösen. Dazu können KI auf bereits bestehende/bewährte Regeln, Lösungen, Wissensdatenbanken, usw. zurückgreifen, die erweiterbar sind.
- Lösungen können vor deren Umsetzung mit Menschen und anderen KI diskutiert werden.
- Lösungen und allgemein neue Ideen können von KI (auch gemeinsam) simuliert und deren Auswirkungen überdacht werden.
- KI brauchen dazu ein Textverständnis aber das gibt es schon ansatzweise. Denken und Logik sind programmierbar.
- Insbesondere auch AKI können Widersprüche (innere und zu äußeren Information) selbst erkennen. Eine Widerspruchserkennung ist algorithmisch programmierbar. Praktisch muss man nur prüfen, ob eine neue Information/Aussage zu bereits gespeichertem Wissen paßt und wenn nicht, dann muss ermittelt/diskutiert werden, was richtig ist.
Da muss man nicht Informatik studiert haben, um das prinzipiell verstehen zu können. Wer will, darf sich jetzt zum wiederholten Male mit völligem Unverständnis auch vom Gödelschen Unvollständigkeitssatz outen. Siehe auch
Allahu akbar
Zukünftige KI können besser als Menschen sein
Der Gödelsche Unvollständigkeitssatz und meine Genialität
Concentrate
Unfassbar
Es ist im Grunde ganz einfach und offensichtlich
Wer weiß?
Die Naturgesetze und das Universum
Es geht voran
(alles imho)
Es ist wirklich super einfach: KI werden irgendwann besser als Menschen sein, Supercomputer sind dazu schon leistungsfähig genug, es fehlt nur noch die Software und das ist nur noch eine Frage der Zeit.
Noch gibt es im Diesseits keine echten/starken KI aber es wird sie vermutlich shcon dieses Jahrhundert geben, vielleicht schon um ca. 2050, wobei erste KI dazu nur erstaunlich fähig sein müssen und noch nicht in allem besser als jeder Mensch. Man bedenke jedoch, dass derzeitige KI (die noch keine echten/starken KI sind) in Teilbereichen schon leistungsfähiger als viele Menschen sein können.
Menschen sind dagegen beschränkt (ca. 3 Pfund Gehirn) und prinzipiell weitgehend ausgereift (die Stärke der Menschen liegt in Zusammenarbeit, größere Menschen und größere Gehirne wären problematisch/ungünstig und sind wegen moderner Technik unnötig) - es kann einige Genies geben aber auch die können mit zukünftigen KI nicht mithalten, KI werden dem Menschen tausendfach und vermutlich millionenfach überlegen sein, es kann in Zukunft KI von Planetengröße geben (z.B. in Millionen Jahren), einige KI werden vielleicht sogar Kubiklichtjahre groß sein (das kann noch dauern, z.B. Milliarden oder Billionen Jahre).
Zukünftige Super-KI werden keine NKI (ML-trainierte neuronale Misthaufen) sein, sondern AKI, also gezielt programmierte KI mit Algorithmen, Modulen (z.B. für Simulation, Beweertung, Entscheidungsfindung, Wissenserweiterung, usw.), Regeln, Datenbanken, usw. Es ist quasi völlig ausgeschlossen, dass zukünftige große Super-KI maßgeblich auf Basis neuronaler Netze funktionieren könnten, vielleicht haben die nicht mal ein neuronales Modul, weil das einfach zu schlecht wäre und nicht notwendig ist.
Überdurchschnittlich gebildete und intelligente Menschen, die einfachste Zusammenhänge nicht kapieren wollen (ja, sie wollen es nicht kapieren, es sind Ignoranten, die aus Narzissmus bei ihrem falschen Weltbild bleiben wollen) zeigen, wie unfassbar mangelhaft/fehlerhaft neuronale Netze und menschliche Gehirne sein können. Ignoranten können sogar irgendwie kurz verstanden haben, dass sie sich irren und falsch liegen aber sie denken/schreiben weiter Blödsinn, weil sie so schlecht und narzisstisch sind, weil sie so ein falsches Weltbild haben. Es gibt Menschen, die sind völlig unbelehrbar, die führen sich über Jahre öffentlich mit Bullshit vor. Manche folgen dem Mainstream und schweigen dann vielleicht zu ihren Irrtümern, wenn auch der Mainstream diese Irrtümer als solche benennt. Andere denken irgendwelchen Blödsinn auch gegen den Mainstream.
"... Errare humanum est ist eine lateinische Redewendung, die in dieser Form jedoch nicht vollständig wiedergegeben ist. Vollständig lautet der Ausspruch wie folgt: „Errare (Errasse) humanum est, sed in errare (errore) perseverare diabolicum.“ (Hieronymus; Seneca, Epistulae morales VI,57,12; Cicero, Orationes Philippicae 12,2), was wie folgt übersetzt wird: "Irren ist menschlich, aber auf Irrtümern zu bestehen ist teuflisch." ..." errare humanum est
Bei "teuflisch" ist da eher an Satan zu denken und nicht an den Höllenchef, der vermutlich ziemlich schlau und klug ist, der auch Allah dient.
Ein prinzipieller Algorithmus für KI ist:
- Kapazität (Rechenleistung, Speicher, Energie) möglichst sinnvoll einteilen/verwenden.
- Umgebung mit Sensoren erfassen und diese Daten sinnvoll aufbereiten.
- Informationen aus dem Internet (Nachrichten, TV, usw. ...) holen und Wichtiges/Interessantes speichern.
- Aufgaben/Probleme lösen. Dazu können KI auf bereits bestehende/bewährte Regeln, Lösungen, Wissensdatenbanken, usw. zurückgreifen, die erweiterbar sind.
- Lösungen können vor deren Umsetzung mit Menschen und anderen KI diskutiert werden.
- Lösungen und allgemein neue Ideen können von KI (auch gemeinsam) simuliert und deren Auswirkungen überdacht werden.
- KI brauchen dazu ein Textverständnis aber das gibt es schon ansatzweise. Denken und Logik sind programmierbar.
- Insbesondere auch AKI können Widersprüche (innere und zu äußeren Information) selbst erkennen. Eine Widerspruchserkennung ist algorithmisch programmierbar. Praktisch muss man nur prüfen, ob eine neue Information/Aussage zu bereits gespeichertem Wissen paßt und wenn nicht, dann muss ermittelt/diskutiert werden, was richtig ist.
Da muss man nicht Informatik studiert haben, um das prinzipiell verstehen zu können. Wer will, darf sich jetzt zum wiederholten Male mit völligem Unverständnis auch vom Gödelschen Unvollständigkeitssatz outen. Siehe auch
Allahu akbar
Zukünftige KI können besser als Menschen sein
Der Gödelsche Unvollständigkeitssatz und meine Genialität
Concentrate
Unfassbar
Es ist im Grunde ganz einfach und offensichtlich
Wer weiß?
Die Naturgesetze und das Universum
Es geht voran
(alles imho)