Ein menschliches Gehirn wiegt ca. 3 Pfund (bzw. z.B. 1400 Gramm) und schafft laut Wikipedia nur ca. 10 Teraflops ("... das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ..."
http://de.wikipedia.org/wiki/Gehirn).
"Summit or OLCF-4 is a supercomputer developed by IBM for use at Oak Ridge National Laboratory, which as of November 2018 is the fastest supercomputer in the world, capable of 200 petaflops. Its current LINPACK benchmark is clocked at 143.5 petaflops. ..."
http://en.wikipedia.org/wiki/Summit_(supercomputer)
Obiger Supercomputer hat also theoretisch ca. die zehntausendfache Rechenleistung eines menschlichen Gehirns und man baut bereits an Exaflopscomputern:
"Er soll eine Trillion Rechenoperationen in der Sekunde ausführen können: China hat mit dem Bau eines neuen Supercomputers begonnen. ..."
http://www.spiegel.de/netzwelt/gadg...neuen-supercomputer-mal-wieder-a-1135380.html
Diese Supercomputer können zudem viel mehr Daten präziser speichern und schneller verarbeiten als ein menschliches Gehirn, das zudem nicht mal exakt programmiert werden kann. Eine Supercomputer-KI kann das gesamte Menschheitswissen beinhalten - was kann vergleichsweise ein Mensch?
Zur KI fehlt nur noch die Software und ggf. eine bessere Architektur (mehr Integerberechnung, algorithmisch und nicht neuronal).
Zukünftige KI können dem menschlichen Geist in allen Punkten vielfach überlegen sein und zwar mit Leichtigkeit, weil das menschliche Gehirn nur 3 Pfund Glibbermasse ist, die in primitiver Selbstorganisation und nicht optimal operiert.
Neuronale KI (NKI, das derzeitige KI-Prinzip) sind eine potentiell gefährliche Fehlentwicklung (siehe auch "The Dark Secret at the Heart of AI"
http://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/) - algorithmische KI (AKI) können dagegen viel besser sein: effizienter, modularer, deterministischer (bis auf gewollte Zufallsentscheidungen), klare Fehleranalyse möglich, klassisch programmiert (eben nicht neuronal), können viel größer und leistungsfähiger sein (während eine zu große NKI dann irgendwann fragmentiert, verrückt wird), sind durch klare Programmierlogik und Regeln auch sehr viel sicherer und zuverlässiger. Mit AKI kann man einen NKI-Vorsprung leicht einholen. NKI taugen allenfalls zur AKI-Entwicklung.
KI hängen von der Rechenleistung (die ist begrenzt, nicht so schnell wachsend) und der Programmierung ab. Eine optimale AKI sollte mit aktueller Technik bereits erstaunliches mit nur z.B. 100 kW leisten können, dem Menschen in vielen Bereichen überlegen sein. Es fehlt eben noch die Software dazu.
Wenn in einigen Jahrzehnten z.B. 25 kW bis 100 kW für eine dem Menschen überlegene KI reichen, dann kann es nach einiger Zeit Millionen KI geben, von denen viele auch zusammenarbeiten können. Überlegt doch mal, was alleine Zehntausende oder Hunderttausende KI schaffen könnten, wo ein menschlicher Experte erstmal Jahrzehnte lernen muss, um vielleicht einen kleinen Beitrag leisten zu können. KI können in relativ kurzer Zeit zusammengebaut und dann kann einfach das nötige KI-Programm und Wissen in kurzer Zeit aufgespielt (kopiert) werden.
Deutschlands muss gezielt an echter/starker KI arbeiten. Es muss ein Multimilliarden EU-Programm zur KI-Entwicklung geben. Deutschland muss rechtzeitig (sofort) starke KI entwickeln - dabei wird sicher was Nützliches herauskommen aber wenn Deutschland zulange warten würde, hätte Deutschland ein Problem.
Die Entwicklung guter KI erfolgt am besten international gemeinsam und Open Source, auch mit guten Regeln/Gesetzen für gute KI. Open Source KI ist quasi der Superclou für eine gute KI-Entwicklung: wenn alle Staaten zusammen open source gute KI entwickeln, dann ist diese KI besser, schlauer, leistungsfähiger, sicherer, usw. (wegen der vielen Experten und des gemeinsam viel höheren Etats) und wird daher von mehr Staaten kopiert => gute KI verbreiten sich auf der Erde, die Menschheit ist gerettet. Die gemeinsam entwickelte gute KI ist dann auch besser als vielleicht irgendwo entwickelte schlechte KI; die guten KI sind eher überlegen. Noch eine starke Motivation zur Zusammenarbeit: die Angst, dass andere Staaten einen Vorsprung herausarbeiten könnten - wenn dagegen viele Staaten zusammenarbeiten, werden diese gemeinsam geschaffenen KI (bzw. die Basis-Software und wichtige Grundlagen dazu) wahrscheinlich ganz vorne mit dabei sein. (alles imho)