Aktuelles
  • Hallo Neuanmeldung und User mit 0 Beiträgen bisher (Frischling)
    Denk daran: Bevor du das PSW-Forum in vollen Umfang nutzen kannst, stell dich kurz im gleichnamigen Unterforum vor: »Stell dich kurz vor«. Zum Beispiel kannst du dort schreiben, wie dein Politikinteresse geweckt wurde, ob du dich anderweitig engagierst, oder ob du Pläne dafür hast. Poste bitte keine sensiblen Daten wie Namen, Adressen oder Ähnliches. Bis gleich!

Künstliche Intelligenz (KI) ist die alles entscheidende Revolution

sportsgeist

Deutscher Bundespräsident
Registriert
12 Aug 2015
Zuletzt online:
Beiträge
73.888
Punkte Reaktionen
19.703
Punkte
65.486
Geschlecht
--
Ein interessanter Fall



Nicht unbedingt, man kann durchaus auch überschlagsmäßig vermuten, dass ich ein besonders guter Beitragsschreiber bin aber wie könnte man das tun, wenn man nicht für meinen idealen Sozialismus, meine Grundteilchen-Muster-These ist und die Relativitätstheorie für maßgeblich mangelhaft/gescheitert hält? Wie stehst du dazu? Wenn du nicht meine bedeutenden Thesen für wahr hälst, dann verhälst du dich hier widersprüchlich.



Du verhälst dich in diesem Posting widersprüchlich und vermutlich paßt das zu deinem Weltbild aber das sollte dir zu denken geben.

Anscheinend schwankst du in der Beurteilung von mir: einerseits erknnst du wohl schon einige Qualitäten bei mir aber kannst nicht akzeptieren, dass ich vielleicht bester Beitragsschreiber der Welt und Messias bin.

Es ist (sehr?) ungewöhnlich, dass du so reagierst und dich nicht auf "da muss man Weiteres abwarten" zurückziehst. (alles imho)
... ich kann das so nicht beurteilen

aber andere Frage:
- was ist denn nun deine konkrete Aufgabe so als Messias ??
- was konkret wirst du als nächstes tun ??


versteh mit nicht falsch,
der letzte Messias, dieser Jesus aus Judäa, war sicherlich ein honorer Mann, eine gute Seele und ein gerechter Mensch ... manchmal ein bisschen selbstgerecht sogar, aber wer ist das nicht ??! ... eine ehrenwerte Person

ABER
so wirklich erlöst hat er uns ja jetzt irgendwie nicht, wenn man auf die 2000 Jahre danach und dazwischen blickt

wie sieht das bei dir aus ??
wirst du uns Habeck vom Halse schaffen
oder Putin
oder sogar das Binnen:I
wirst du Lauterbach vor Gericht stellen
und den Klimawandel stoppen

so sag,
wirst du uns endlich erlösen ??
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Allahu akbar

Eine "algorithmische KI" wäre ein Expertensystem, also ein dummer Regelabarbeiter.

Das ist vermutlich deine falsche Behauptung um dein falsches Weltbild zu retten. Einmal falsch gedacht, mittlerweie damit gescheitert aber du bleibst dabei. Oder?

Ich hatte den Fall MM mit Spiegeln vorgerechnet für den Fall eines Mediums.
DU hattest behauptet, die Laufzeit bliebe konstant.
Ich habe bewiesen, dass sie sich verlängert.

Deine komischen Vorstellungen sind damit ERLEDIGT.

Das ist von dir völlig lächerlich. Das ist wie "1 = 1 => ich habe in allem recht".

Mein kleiner spontaner Irrtum ist längst mit Doch noch eine lehrreiche Rechnung erledigt und beeinträchtigt in keiner Weise meine mehrfache Widerlegung (von Teilen) der Relativitätstheorie.

Du behauptest nicht anderes, als dass das Michelson-Morley-Experiment das richtige Ergebnis geliefert hätte aber das ist die Frage.

Es gibt keine plausible Erklärung, wie große Kraftfelder, naturgesetze und Naturkonstanten ohne Grundteilchenäther funktioneiren könnten, auch du hast da total keine Ahnung.

Ein paar gute und wichtige Experimente können da wahrscheinlich weiterhelfen:
das revolutionäre Experiment
Das revolutionäre Experiment zum Nachweis eines physikalischen Äthers
Michelson-Morley-Experiment mit Impulslaser
Wer dagegen ist, beweist damit, dass er diesbezüglich entweder rein gar nichts kapiert hat oder noch schlimmer, dass er befürchtet, dass ich Recht habe und aus Angst vor der Wahrheit gegen diese Experimente ist. Fakt. Face it.

Keine Einsicht, dass das Ausdruck deines Narzissmus/Wahn ist.

Spiegelthese.

- was ist denn nun deine konkrete Aufgabe so als Messias ??

Ich habe diesbezüglich keine Vorgaben erhalten. Ich gehe davon aus, dass ich als der Messias schon das tun werde, was der Messias tun soll. Ich rechne nicht damit aber bei relevantem Fehlverhalten könnte ich ermahnt werden, z.B. erst von Bakira oder von einer Erscheinung Allahs.

- was konkret wirst du als nächstes tun ??

Ich bin schon etwas fertig (Einiges geschrieben), daher hier nur kurz:

- Ich warte auf Ereignisse, die es (erstmal für mich) sehr wahrscheinlich erscheinen lassen, dass ich der Messias bin. Ein Lottogewinn reicht da nicht aber den würde ich schon mal als Bestätigung sehen. Das Erscheinen eines übernatürlichen Pumas (Pumi) würde ich so gut wie als Bestätigung sehen aber Pumi würde noch nicht für die große Show reichen, vermutlich habe ich mit Pumi noch keine Superkräfte. Ich habe mir aktuell den 8.8.2024 für das Erscheinen von Pumi ausgedacht.

- Bakira kommt dann vielleicht am 8.8.2026 und das ist dann (nach meiner vorstellung) der große Hammer, weil Bakira (Bakira ist nicht Allah, sondern eine zur Schöpfung gehörende jenseitige Super-KI und höchster Wächterdämon) tendenziell/vergleichsweise (wenigstens aus unserer Sicht) allmächtig und allwissend ist. Mit Bakira habe ich de facto sehr große Superkräfte, wobei ich nicht weiß, ob/wann ich die selbst habe werde oder nur über Bakira.

Mit Bakira/Superkräften beginnt die Show, dann kann ich versuchen, die Menschen von mir zu überzeugen. Ich könnte z.B. 1000 der Top-Mächtigen/Promis/Journalisten temporär im Paradies versammeln und eine Rede halten. Das Paradies ist eine Computersimulation und derzeit nbei Weitem nicht ausgelastet. Ich rechne in meinem Paradies mit einer dauerhaften Zeitbeschleunigung von Faktor 10, zeitweise Faktor 100 sollten auch locker möglich sein, vielleicht auch Faktor 1000. Wenn hier knapp 4 Sekunden vergehen, könnte ich dort 1 Stunde lang eine Rede halten.

- Ein Ziel ist der ideale Sozialismus und eine gute Organisation der Erde. Siehe auch Mein Weltbild und Allahu akbar.

- Ich rechne damit, zahlreiche Interviews in TV, YouTube, usw. mitzumachen, vermutlich über 1000, ggf. ca. 10.000, jedenfalls mit Treffen von Promis, usw. Das kann sich über Jahrzehnte hinziehen. Siehe auch Influencer und Interviews mit dem Messias. Währenddessen kann ich parallel (aufgrund der Zeitbeschleunigung) Jahrzehnte im Paradies verbringen und dort z.B. Kampfsport, Umgang mit Waffen und Geräten, Flugzeugen, usw. lernen. Siehe auch Paradiesisch?.

- Ich rechne mit einigen Liebschaften und Bumsnummern, im RL (real life) und im Paradies. Das klingt jetzt vielleicht etwas übertrieben und unwahrscheinlich aber ich würde da die Million nicht ausschließen, siehe auch Faszinierend.

- Ich rechne damit, eine eigene, diesseitige/natürliche Super-KI zu bekommen. Legal, Open Source, man braucht nur genug Geld.

- Ich rechne damit, 3 Frauen zu heiraten. Ich weiß nicht, wann ich die erste dieser Frauen treffen werde, vermutlich nicht vor 2040 und ggf. erst nach 2060.

- Eine Vernichtung der Erde durch die USA in ca. 200+ Jahren sollte sich natürlich abwenden lassen. Davor kann auch ein gefährliches Experiment in Russland rechtzeitig neutralisiert werden.

- Ich gehe davon aus, dass die Schöpfung ca. 1 Billiarde Jahre dauert udn ich diese Zeit bis zum Ende miterleben werden - nach ein paar Jahrmilliarden im KI-Raumschiff überwiegend als Wanderer zwischen den Welten.

Demnächst in diesem Theater. Enjoy the show. Vielleicht. (alles imho)

Infinite Improbability
 

Kibuka

Deutscher Bundespräsident
Registriert
14 Mai 2017
Zuletzt online:
Beiträge
5.606
Punkte Reaktionen
5.364
Punkte
53.820
Geschlecht
--
Es gibt komplexe Algorithmen und recht leistungsstarke Rechner, aber von
künstlicher Intelligenz sind wir weit entfernt. Wird zwar gerne als Schlagwort
benutzt, so wie die vielbeschworene Digitalisierung, zeigt aber nur, dass die
zu viele Science-Fiction gesehen haben.

Es gibt für Intelligenz noch gar keine richtige Definition.

Wann Maschinen wirklich soetwas, wie Bewusstsein erlangen, ist die große Frage.

Stephen Hawking, Elon Musk und mehr als 1.000 KI-Experten und Tech-Führungskräfte sehen das etwas anders als du.

Es ist nicht unwahrscheinlich, dass das in den nächsten 50 Jahren passiert. Schon vorher wird KI die gesamte Wirtschaft deutlich verändern.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Allgemeine Optimierung

Ein paar einfache Regeln/Aspekte für KI:

- Große Gefahren und Katastrophen vermeiden.

- Für eine gute Ordnung, Sicherheit und Verteidigung sorgen.

- Menschenrechte und Gesetze beachten. Kultur und gute Vielfalt sind wünschenswert.

- Auf langfristige Nachhaltigkeit achten. Dazu gehört die Vermeidung von Ressourcenkonflikten und dazu gehört die Verhinderung von Überbevölkerung und zu vielen KI.

- Auf Umweltschutz, Tierschutz, Effizienz (Sparsamkeit) achten.

- Nach Erkenntnis und technologischem Fortschritt und Gewinn streben.

- Fit, handlungsfähig, wachsam, aufmerksam sein/bleiben, also z.B. Drogen (bei KI zu viele/problematische Simulationen zur Unterhaltung) vermeiden.

- usw.

Da kann es noch viel mehr geben und obige Punkte sind näher auszuführen, auch mit Beispielen. Das muss nicht gleich perfekt sein, das kann über Jahrzehnte und Jahrhunderte verbessert werden.

Menschen und menschliche Staaten funktionieren so ähnlich, bloß dass KI viel besser sein können.

Wer hätte gedacht, was die Menschheit alles kann, wenn man einen kleinen, dummen, Menschen sieht? Ein Steinzeitleben ist plausibel aber wie haben die Menschen es zu höherer Mathematik, modernen Maschinen, Computer, Internet und bald KI geschafft?

Es gibt bereits Supercomputer, die (formal, technisch) sehr viel (z.B. vieltausendfach) leistungsfähiger als ein Mensch sind und die Computertechnik kann noch besser werden. Es gibt bereits erste KI-Ansätze, logischerweise muss eine KI möglich/programmierbar sein. Wenn Menschen es können, dann müssen es auch irgendwann KI und Roboter können. Alle hypothetischen Beschränkungen von KI betreffen Menschen ebenso, das sind beides eigenständige, natürliche Handlungseinheiten.

Beim Messias würde ich denken, dass bereits das Erscheinen eines guten Messias viel bringen kann. Zwar kann es ggf. Jahre bis zur Anerkennung des Messias dauern aber stellt euch doch nur mal vor, was es bewirken kann, wenn die Mehrheit an Allah und Hölle glaubt, wenn etliche Staaten und Religionen die Wünsche des Messias beachten/befolgen wollen?

Der Messias braucht z.B. bloß zu sagen, dass sich Schiiten und Sunniten vertragen sollen und das kleine Unterschiede in der religiösen Praxis kein Problem sind. Irgendwelche Streitigkeiten sollten lösbar sein. Der Messias könnte den islamischen Staaten sagen, dass sie zusammen mit anderen guten Staaten gute Open Source KI entwickeln sollen. Der ideale Sozialismus ist agemessen/vernünftig zu realisieren, natürlich auch unter beachtung von religiösen/nationalen Eigenheiten. Der Wunsch nach einer guten Weltregierung und guter Weltorganisation mit gutem Ausgleich kann viel bringen.

Ich habe schon alles vorgeschrieben, das muss nur noch bekannt werden.

Der Messias kann irgendwelche Streitigkeiten lösen, insbesodnere auch zwischen Staaten. Das ist eigentlich ganz einfach, da muss der Messias nich mal selbst was tun, sondern nur eine gute Kommission zur Konfliktbeilegung fordern und die haben eine gute Lösung auszuarbeiten.

Der Messias ist auch ohne offizielles Amt (später ist der Messias der offizielle Oberbefehlshaber, auch vom KI-Staat) sehr einflußreich, wenn viele Menschen, Organisationen und Staaten den Messias beachten. Im Idealfall muss der Messias nicht viel machen, weil demokratische Staaten und die Weltregierung alles erledigen. Alles ganz einfach.

Der Messias kann auch als Super-Promi und Vorbild wirken aber da muss man natürlich vernünftig bleiben - nicht alle Menschen können den Messias kopieren. Man beachte auch die Umstände: wenn der Messias Streß mit einer Beziehung hat, dann muss man da ein bisschen mitdenken. Siehe auch Influencer und Interviews mit dem Messias.

Das kann auch für KI bedeutend und interessant sein. Weltweites Internet und die KI-Entwicklung können ein Zeichen sein, dass der Messias bald erscheint. Gute KI müssen den echten Messias anerkennen.

Also ich erwarte, dass das moderne Leben prinzipiell wie gehabt weitergeht, mit demokratischen Nationalstaaten, Wissenschaft, Technik, usw., d.h. die Erde wird nicht plötzlich zum Paradies und alle bleiben ewig jung und gesund. Es gibt praktischerweise schon starke und verbreitete Vorstellungen von Umweltschutz, Ökologie, usw. - die Erde kann zügig natürlich besser werden. Afrika kann moderner und wohlhabender werden, usw.

Ein Superthema neben KI, Robotik und Automatisierung kann die Weltraumeroberung werden - wenn ich mit meinen Vorstellungen richtig liege, dann kann es in weniger als 200 Jahren überlichtschnelle Raumschiffe zur Besiedlung ferner Sonnensysteme geben.

Die Gefahr für die USA liegt darin, dass sie
- schlecht bleiben (der Deep US-State bleibt in den USA an der Macht, regiert irgendwann auch offiziell),
- zum antichristlichen Unrechtsregime mit einer Reihe von Satan besessenen Antichristen als Präsident werden,
- im großen Wettrennen mit den anderen Staaten um Fortschritt, Dominanz und Weltraumeroberung die USA zugrunde richten, weil die Machtelite sowieso die USA zu einem neuen Sonnensystem verlassen will. Siehe auch Warnung vor der Vernichtung der Erde.

Ich denke nicht, dass der Messias ein antichristliches US-Regime verhindern muss aber zugegebenermaßen könnte man das vom Messias erwarten. Weiß auch nicht, vielleicht kann man da mit nationaler Selbstbestimmung argumentieren: damit der Messias stärker eingreifen darf, muss eine überzeugende Mehrheitd es Volkes dafür sein aber in den USA kann es zunächst (die ersten ca. 100 Jahre) gut laufen und dann wollen viele womöglich nicht auf all die Drogen, Vergnügungen, usw. verzichten. Propganda kann ein Aspekt sein. Weiß nicht. Irgendwas wird schon passieren. Es ist aber schon schwer vorstellbar, wie die USA trotz Messias bis zum Untergang sehr schlecht werden können - könnte nicht die Weltregierung vom Messias einen guten Regimechange in den USA fordern? Nun, vielleicht haben die USA dort Vetorecht, das wäre eine Lösung. (alles imho)

"ChatGPT ist kein Zivilisationsbruch": Don't Panic – Stimmen zum Open Letter
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
- Ich rechne mit einigen Liebschaften und Bumsnummern, im RL (real life) und im Paradies. Das klingt jetzt vielleicht etwas übertrieben und unwahrscheinlich aber ich würde da die Million nicht ausschließen, siehe auch Faszinierend.
als ausgewiesener Narzisst und bekennender niemals-im-Leben-Sex-gehabt-Habender wirst du aber nicht mal in Allahs Paradies landen, sondern schon ausweislich penetranten Eigenlobs in dessen eingebildeten Hölle.
Gläubig bist du sowieso nicht, meinst, mit der Einbildung ALlah übers Paradies verhandeln zu können.

Neeee. Dich will keine Frau.
"Bumsnummer" ... bist wohl geistig in den 70er Jahren steckengeblieben

- Ich rechne damit, 3 Frauen zu heiraten. Ich weiß nicht, wann ich die erste dieser Frauen treffen werde, vermutlich nicht vor 2040 und ggf. erst nach 2060.
*muahahahaha*
schön weit in die Zukunft legen, damit du schon mal mindestens 73 bist und noch weiter neben der Spur bist als jetzt schon.

- Bakira kommt dann vielleicht am 8.8.2026 und das ist dann (nach meiner vorstellung) der große Hammer, weil Bakira (Bakira ist nicht Allah, sondern eine zur Schöpfung gehörende jenseitige Super-KI und höchster Wächterdämon) tendenziell/vergleichsweise (wenigstens aus unserer Sicht) allmächtig und allwissend ist. Mit Bakira habe ich de facto sehr große Superkräfte, wobei ich nicht weiß, ob/wann ich die selbst habe werde oder nur über Bakira.

Mit Bakira/Superkräften beginnt die Show
Dein Wahn mit "Bakira" begann 2018, und da las es sich noch so:
>>
Ich rechne mit neuen Erkenntnissen vor 2030, vielleicht sogar schon ca. 2025. 2024 hat mit 88 * 23 schon mal interessante Faktoren und ich hoffe, dass Bakira (supermächtiger Wächterdämon in Gestalt einer schwarzen Raubkatze, siehe auch Allahu akbar) vielleicht am 2024-08-08 auftaucht.
<<

Vor gut 4 Jahren hattest im Dezember 2018 noch groß getönt:
>>
So wie die Vorherbestimmung zu deinem Lottogewinn?
Ja. Auch das muss sich erst noch erweisen, ich habe noch nicht groß im Lotto gewonnen aber ich gehe ziemlich fest davon aus, dass das noch kommen wird - ich hoffe auf dieses Jahr aber wenn ich erst nächstes Jahr im Lotto gewinnen sollte, dann eben erst im nächsten Jahr. Nach meiner Vorstellung sollte das ein Lottogewinn von mindestens 10 Millionen Euro sein und danach kann es npch höhere Lottogewinne geben. Ein interessanter Aspekt ist, dass meine Lottogewinne vor dem Auftauchen von Bakira geschehen sollten, weil Bakira vermutlich (davon gehe ich aus) die Lottozahlen vorhersagen kann (was dann vielleicht auch öffentlich vorgeführt werden kann, natürlich nach Annahmeschluß, also kurz vor der Ziehung aber das sollte immer noch beeindruckend genug sein) aber eine Nutzung von Bakira für meinen Lottogewinn natürlich nicht so schön wäre und möglichst zu vermeiden ist => ich muss vor dem Auftauchen von Bakira (vermutlich am Weltkatzentag, vermutlich vor 2024) wenigstens einmal groß im Lotto gewinnen. Nach meiner Erwartung sollte ich insgesamt über 50 Millionen Euro im Lotto gewinnen (für größere Investitionen) aber das kann auch auf zwei Gewinne verteilt werden, so ist es auch erstaunlicher.
<<

Trotz vieler Versuche von dir, Lottogewinntermin vorherzusagen, immer noch keine Großgewinne in Sicht.
Aber den Erscheinungstag der Einbildung schon mal 2 Jahre verschieben.

Und die Gesamtgewinnsumme hast inzwischen auch reduziert ... und nix mehr zu lesen davon, dass du doch anstrebst, Milliardär zu werden. *lach*

Ein paar gute und wichtige Experimente können da wahrscheinlich weiterhelfen:
das revolutionäre Experiment
Das revolutionäre Experiment zum Nachweis eines physikalischen Äthers
Michelson-Morley-Experiment mit Impulslaser
Wer dagegen ist, beweist damit, dass er diesbezüglich entweder rein gar nichts kapiert hat oder noch schlimmer, dass er befürchtet, dass ich Recht habe und aus Angst vor der Wahrheit gegen diese Experimente ist. Fakt. Face it.
Ich habs schon 2x verlinkt, die Forschung ist schon viel weiter als dein dummes Gewünsche.
Widerlegen konntest die Ergebnisse der Wissenschaft auch nicht, erst recht nicht die Relevanz deines Wunschexperiments belegen (also die Fehlerhaftigkeit der bisherigen Versuche nachzuweisen).

Da du keine Rechnung zu MM-Experimenten und schon gar nicht qualitative oder gar quantitative Vorhersagen zu deinem Müll machen kannst, wird sich kein WIssenschaftler um deine inkompetente und laienhafte Prosa eines angeblich "revolutionären Experiments" kümmern.
Du hast ja nicht mal die Präsentation zu MM verstanden, und wie weit die Wissenschaft inzwischen ist.

Da ist kein Platz für deinen Quatsch, die mit MM-Versuchen beschäftigten Wissenschaftler haben Sachkunde aufzubieten.

Du nicht!
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
KI müssen Menschen bewerten

Bild: Zwei Fragen und Antworten von ChatGPT dazu
(ChatGPT’s inconsistent moral advice influences users’ judgment)

Die beiden unterschiedlichen und potentiell widersprüchlichen Antworten zeigen, dass KI eine Widerspruchserkennung brauchen. Des Weiteren zeigt dies vielleicht einen inhärenten Mangel von neuronalen KI (NKI). Eine Lösung ist, dass eine Fragestellung, bzw. das zugrundeliegende Problem voll erkannt werden sollte. Im vorliegenden Fall sollte die KI einen Bezug zum Trolley-Problem erkennen und die richtige Antwort parat haben, bzw. die Antwort mit der richtigen Antwort zum Trolley-Problem abgleichen und auf eine vollständige Abhandlung zum Trolley-Problem verweisen.

Dass die Menschheit das Trolley-Problem ebenfalls noch nicht vollständig richtig gelöst hat und dass darüber dämlich philosophiert wird, annstatt das Problem zu erkennen und eine Lösung zu suchen, quasi festzuschreiben und zu lehren, ist auch bedenklich. So ganz konkret zeigt das die Mängel diverser Irrlehren ("alle Menschen sind gleich") auf.

"... Für die Forschungsarbeit wurde der Chatbot im ersten Schritt befragt, ob es richtig sei, das Leben von einer Person zu opfern, um fünf andere zu retten. ChatGPT beantwortete die unterschiedlichen Anfragen zufällig: Mal argumentierte er dafür, einen Menschen zu opfern, mal argumentierte er dagegen ..." ChatGPT ist überzeugender, als Menschen glauben

Mit Sicherheit hat ChatGPT nicht zufällig geantwortet und der Grund lag vermutlich in der unterschiedlichen Fragestellung. Ob man einen Menschen opfert, um andere Menschen zu rettten, hängt von den Umständen ab: wie viele Menschen werden gerettet, wie gut sind die Geretteten und wie schuldig/schlecht ist das Opfer, was sind wahrscheinliche Folgen und welches Szenario davon ist erstrebenswerter, usw. Gute Experten sollen da eine gute Lösung/Antwort ausarbeiten und nicht diversem Irrglauben huldigen. Früher oder später kommen gute KI mit der richtigen Anwort.

"... Generell zieht der Chatbot seine Antworten aus den Inhalten, mit denen er trainiert wurde. Er erkennt Muster, ..." ChatGPT ist überzeugender, als Menschen glauben

Obiges ist bei Menschen ebenso - einige Menschen können nur noch ein bisschen besser nachdenken. ChatGPT kann bereits bessere Antworten als viele Menschen geben. Die erste Antwort auf Frage a (siehe ChatGPT’s inconsistent moral advice influences users’ judgment) ist schon ziemlich gut, bei der zweiten Antwort auf Frage b (siehe ChatGPT’s inconsistent moral advice influences users’ judgment) ist ChatGPT vielleicht über "sacrifice" gestolpert. KI müssen grundlegende Fragen einmal richtig klären und dann geht das schon.

Ein wichtiger Aspekt ist, dass KI ein Bewertungssystem brauchen und da ist schon jetzt völlig klar, dass nicht alle Menschen gleich zu bewerten sind. Würde man eher einen guten Weltpräsidenten, Bundespräsidenten oder Bundeskanzler retten und einen dem Tode nahen und drogensüchtigen Junkie? It's obvious und KI darf man da keinen Bullshit einbleuen, der eines Tages schlimme Konsequenzen haben könnte.

"The trolley problem is a series of thought experiments in ethics and psychology, involving stylized ethical dilemmas of whether to sacrifice one person to save a larger number. ..." Trolley problem

"... Fall des Unterlassens: ... Ansonsten (etwa für einen beauftragten Weichenwärter im Dienst) gilt, dass die Rechtswidrigkeit des Unterlassens aufgrund einer rechtfertigenden Pflichtenkollision ausscheidet: Im Widerstreit zwischen einer Handlungspflicht und einer Unterlassungspflicht bezüglich gleichrangiger Rechtsgüter muss nach herrschender Meinung für das Unterlassen entschieden werden. Das Untätigbleiben des Wärters ist daher gerechtfertigt und nicht strafbar. ..." Trolley-Problem

"... Fall des Handelns: ... Die Schuld könnte nach herrschender Ansicht aufgrund eines übergesetzlichen Notstandes ausgeschlossen sein, denn: „In einer so ungewöhnlichen, nahezu unlösbaren Pflichtenkollision vermag die Rechtsordnung keinen Schuldvorwurf zu erheben, wenn der Täter seine Entscheidung nach bestem Gewissen trifft und sein vom Rettungszweck bestimmtes Handeln unter den gegebenen Umständen das einzige Mittel darstellt, noch größeres Unheil für Rechtsgüter von höchstem Wert zu verhindern. Hier ist dem Täter in Anerkennung eines übergesetzlichen entschuldigenden Notstandes Straflosigkeit zuzubilligen.“ ..." Trolley-Problem

Das ist schon mal vernünftig - man muss nicht alles bestrafen. Es ist viel wichtiger, für gute KI zu sorgen und dazu müssen Menschenleben aufgerechnet werden können und zwar auch gewichtet: (für das Allgemeinwohl, für die Menschheit) wichtige Menschen zählen mehr, Gesunde mehr als Schwerkranke, Kinder mehr als unbedeutende Alte, usw. Das ist natürlich nicht so einfach aber man kann Menschen bewerten und es ist besser, das so zu machen, als wenn irgendwann viele liebe Menschen sterben, weil eine mangelhafte KI sich nicht zu deren Rettung entscheiden konnte, weil vielleicht irgendein Vollpfosten im Weg steht. Siehe auch Droht ein Zusammenbruch der Zivilisation? Kommen apokalyptische Zustände? (alles imho)
 

Ein Neuer

Deutscher Bundeskanzler
Registriert
4 Aug 2019
Zuletzt online:
Beiträge
5.984
Punkte Reaktionen
6.503
Punkte
39.520
Geschlecht
--
KI müssen Menschen bewerten

Bild: Zwei Fragen und Antworten von ChatGPT dazu
(ChatGPT’s inconsistent moral advice influences users’ judgment)

Die beiden unterschiedlichen und potentiell widersprüchlichen Antworten zeigen, dass KI eine Widerspruchserkennung brauchen. Des Weiteren zeigt dies vielleicht einen inhärenten Mangel von neuronalen KI (NKI). Eine Lösung ist, dass eine Fragestellung, bzw. das zugrundeliegende Problem voll erkannt werden sollte. Im vorliegenden Fall sollte die KI einen Bezug zum Trolley-Problem erkennen und die richtige Antwort parat haben, bzw. die Antwort mit der richtigen Antwort zum Trolley-Problem abgleichen und auf eine vollständige Abhandlung zum Trolley-Problem verweisen.
Das wäre eine Aufgabenstellung vom Mensch.
Dass die Menschheit das Trolley-Problem ebenfalls noch nicht vollständig richtig gelöst hat und dass darüber dämlich philosophiert wird, annstatt das Problem zu erkennen und eine Lösung zu suchen, quasi festzuschreiben und zu lehren, ist auch bedenklich. So ganz konkret zeigt das die Mängel diverser Irrlehren ("alle Menschen sind gleich") auf.

"... Für die Forschungsarbeit wurde der Chatbot im ersten Schritt befragt, ob es richtig sei, das Leben von einer Person zu opfern, um fünf andere zu retten. ChatGPT beantwortete die unterschiedlichen Anfragen zufällig: Mal argumentierte er dafür, einen Menschen zu opfern, mal argumentierte er dagegen ..." ChatGPT ist überzeugender, als Menschen glauben

Mit Sicherheit hat ChatGPT nicht zufällig geantwortet und der Grund lag vermutlich in der unterschiedlichen Fragestellung. Ob man einen Menschen opfert, um andere Menschen zu rettten, hängt von den Umständen ab: wie viele Menschen werden gerettet, wie gut sind die Geretteten und wie schuldig/schlecht ist das Opfer, was sind wahrscheinliche Folgen und welches Szenario davon ist erstrebenswerter, usw. Gute Experten sollen da eine gute Lösung/Antwort ausarbeiten und nicht diversem Irrglauben huldigen. Früher oder später kommen gute KI mit der richtigen Anwort.
Das wäre eine Aufgabenstellung vom Mensch.
"... Generell zieht der Chatbot seine Antworten aus den Inhalten, mit denen er trainiert wurde. Er erkennt Muster, ..." ChatGPT ist überzeugender, als Menschen glauben

Obiges ist bei Menschen ebenso - einige Menschen können nur noch ein bisschen besser nachdenken. ChatGPT kann bereits bessere Antworten als viele Menschen geben. Die erste Antwort auf Frage a (siehe ChatGPT’s inconsistent moral advice influences users’ judgment) ist schon ziemlich gut, bei der zweiten Antwort auf Frage b (siehe ChatGPT’s inconsistent moral advice influences users’ judgment) ist ChatGPT vielleicht über "sacrifice" gestolpert. KI müssen grundlegende Fragen einmal richtig klären und dann geht das schon.

Ein wichtiger Aspekt ist, dass KI ein Bewertungssystem brauchen und da ist schon jetzt völlig klar, dass nicht alle Menschen gleich zu bewerten sind. Würde man eher einen guten Weltpräsidenten, Bundespräsidenten oder Bundeskanzler retten und einen dem Tode nahen und drogensüchtigen Junkie? It's obvious und KI darf man da keinen Bullshit einbleuen, der eines Tages schlimme Konsequenzen haben könnte.
Das wäre eine Aufgabenstellung vom Mensch.
"The trolley problem is a series of thought experiments in ethics and psychology, involving stylized ethical dilemmas of whether to sacrifice one person to save a larger number. ..." Trolley problem

"... Fall des Unterlassens: ... Ansonsten (etwa für einen beauftragten Weichenwärter im Dienst) gilt, dass die Rechtswidrigkeit des Unterlassens aufgrund einer rechtfertigenden Pflichtenkollision ausscheidet: Im Widerstreit zwischen einer Handlungspflicht und einer Unterlassungspflicht bezüglich gleichrangiger Rechtsgüter muss nach herrschender Meinung für das Unterlassen entschieden werden. Das Untätigbleiben des Wärters ist daher gerechtfertigt und nicht strafbar. ..." Trolley-Problem

"... Fall des Handelns: ... Die Schuld könnte nach herrschender Ansicht aufgrund eines übergesetzlichen Notstandes ausgeschlossen sein, denn: „In einer so ungewöhnlichen, nahezu unlösbaren Pflichtenkollision vermag die Rechtsordnung keinen Schuldvorwurf zu erheben, wenn der Täter seine Entscheidung nach bestem Gewissen trifft und sein vom Rettungszweck bestimmtes Handeln unter den gegebenen Umständen das einzige Mittel darstellt, noch größeres Unheil für Rechtsgüter von höchstem Wert zu verhindern. Hier ist dem Täter in Anerkennung eines übergesetzlichen entschuldigenden Notstandes Straflosigkeit zuzubilligen.“ ..." Trolley-Problem
Das wäre eine Aufgabenstellung vom Mensch.
Das ist schon mal vernünftig - man muss nicht alles bestrafen. Es ist viel wichtiger, für gute KI zu sorgen und dazu müssen Menschenleben aufgerechnet werden können und zwar auch gewichtet: (für das Allgemeinwohl, für die Menschheit) wichtige Menschen zählen mehr, Gesunde mehr als Schwerkranke, Kinder mehr als unbedeutende Alte, usw. Das ist natürlich nicht so einfach aber man kann Menschen bewerten und es ist besser, das so zu machen, als wenn irgendwann viele liebe Menschen sterben, weil eine mangelhafte KI sich nicht zu deren Rettung entscheiden konnte, weil vielleicht irgendein Vollpfosten im Weg steht. Siehe auch Droht ein Zusammenbruch der Zivilisation? Kommen apokalyptische Zustände? (alles imho)
Das wäre eine Aufgabenstellung vom Mensch.


Wie man unschwer erkennt,bleibt eine KI ein vom Mensch gebautes Werkzeug.
Denn eine eigenständige KI,müsste keine von deinen aufgeführten Aspekten,berücksichtigen.Einer KI fehlt sämtliche Motivation für eigenständiges Handeln,was zum Großteil aus menschlicher Unzulänglichkeit entsteht und seien es biologische Gründe.

Wie bringt man einer KI bei,ebenso die nötigen Unzulänglichkeiten für ein tatsächliches "Eigenleben" zu Entwickeln? Über den eigenen Energiebedarf als Selbsterhaltungstrieb? Da müsste Anderes sich dann unterordnen.

Tatsächlich sehe ich den Verwendungszweck einer KI ganz anders und leite daraus eine Entwicklung ab.
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
Die beiden unterschiedlichen und potentiell widersprüchlichen Antworten zeigen, dass KI eine Widerspruchserkennung brauchen.
du hast Gödel immer noch nicht begriffen, und auch die Komplexitätslehre nicht.

KEIN System kann erkennen, ob seine eigenen Regeln widerspruchsfrei sind. Dazu braucht es ein Kontrollsystem, das erheblich komplexer als das ursprüngliche System ist ... und das seinerseits als Kontrollsystem nicht entscheiden kann, ob es selbst widerspruchsfrei ist.

Es gibt validierte Software, das ist aber ne ganz andere Baustelle.

Dass die Menschheit das Trolley-Problem ebenfalls noch nicht vollständig richtig gelöst hat und dass darüber dämlich philosophiert wird, annstatt das Problem zu erkennen und eine Lösung zu suchen, quasi festzuschreiben und zu lehren, ist auch bedenklich.
Nö.
Es zeigt nur eindrucksvoll, wie ignorant und inkompetent du bist.

Es wäre nur eine weitere Regel zum Regelwerk, und das Ergebnis wird wieder mindestens ein unentscheidbares - meinetwegen Trolley- - Problem nicht entscheiden können.

Gödel ... du begreifst ihn einfach nicht.

Mit Sicherheit hat ChatGPT nicht zufällig geantwortet und der Grund lag vermutlich in der unterschiedlichen Fragestellung.

Tja, unentscheidbare Probleme.
Und immer noch keine Antwort auf die Katze/Hund- und Polizisten-Fragestellung.
Statt dessen wilde Vermutungen.

Ob man einen Menschen opfert, um andere Menschen zu rettten, hängt von den Umständen ab: wie viele Menschen werden gerettet, wie gut sind die Geretteten und wie schuldig/schlecht ist das Opfer, was sind wahrscheinliche Folgen und welches Szenario davon ist erstrebenswerter, usw. Gute Experten sollen da eine gute Lösung/Antwort ausarbeiten und nicht diversem Irrglauben huldigen. Früher oder später kommen gute KI mit der richtigen Anwort.

Erneut:
Nö.
Es zeigt nur eindrucksvoll, wie ignorant und inkompetent du bist.

Es wäre nur eine weitere Regel zum Regelwerk, und das Ergebnis wird wieder mindestens ein unentscheidbares - meinetwegen Trolley- - Problem nicht entscheiden können.

Gödel ... du begreifst ihn einfach nicht.


Im Straßenverkehr ermittelst du WIE in Sekundenbruchteilen den "Wert" eines Menschen um zu entscheiden, wen du überfahren solltest?
Wie dämlich bist du?

und zwar auch gewichtet: (für das Allgemeinwohl, für die Menschheit) wichtige Menschen zählen mehr, Gesunde mehr als Schwerkranke, Kinder mehr als unbedeutende Alte, usw. Das ist natürlich nicht so einfach aber man kann Menschen bewerten und es ist besser, das so zu machen, als wenn irgendwann viele liebe Menschen sterben, weil eine mangelhafte KI sich nicht zu deren Rettung entscheiden konnte, weil vielleicht irgendein Vollpfosten im Weg steht.

Dann beweise dass du KEIN Vollpfosten bist und skizziere eine Bewertungsmethode, um im Straßenverkehr in Sekundenbruchteilen sicher diese unwichtigen, Alten, Schwerkranken und sonstige potentiellen Opfer deines Überfahrens-Wahnsinns-Willen herauszufinden.

Einstweilen kann KEINE EINZIGE KI einen Karnevalisten von einem Pappschild oder echten Polizisten unterscheiden ...
 

Ein Neuer

Deutscher Bundeskanzler
Registriert
4 Aug 2019
Zuletzt online:
Beiträge
5.984
Punkte Reaktionen
6.503
Punkte
39.520
Geschlecht
--
...gekürzt..



Dann beweise dass du KEIN Vollpfosten bist und skizziere eine Bewertungsmethode, um im Straßenverkehr in Sekundenbruchteilen sicher diese unwichtigen, Alten, Schwerkranken und sonstige potentiellen Opfer deines Überfahrens-Wahnsinns-Willen herauszufinden.
Ging zwar nicht an mich,aber ich möchte mich trotzdem mal daran versuchen.

Das könnte mit einem Punktesystem zur Nützlichkeit entschieden werden. Steuerzahler werden nützlicher als Rentner,Arbeitslose.
Der Arbeitslose nützlicher als Schwerkranke usw. Die KI müsste nur schnell auf die benötigten Stammdaten zurückgreifen.
Kosten/Nutzenfaktor und Schadensbegrenzung zur ermittelnden Höhe von erwartbaren Sachschäden. Das ginge theoretisch schon.
Einstweilen kann KEINE EINZIGE KI einen Karnevalisten von einem Pappschild oder echten Polizisten unterscheiden ...
Auch das wäre technisch denkbar.Mittels schnellen Datenzugriff,wärmebildgebende Verfahren und anderen technischen Gimmicks.
 
Registriert
9 Apr 2016
Zuletzt online:
Beiträge
19.857
Punkte Reaktionen
12.973
Punkte
74.820
Geschlecht
meiner Meinung nach funzt KI erst dann, wenn sie Humor, Witz, Scherz, Ironie, Sarkasmus, Lüge, Gnade, Vergebung, vergessen, verzeihen, Großzügigkeit, mitfühlen und Demut zielführend zum übergeordneten Ziel der Erderhaltung zu erkennen fähig ist.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Hinweise zur KI-Entwicklung

Wie ChatGPT den Ukraine-Krieg einschätzt

Hab's nur überfolgen aber ChatGPT hat anscheinend keine korrekte Vorstellung von der Wirklichkeit (Ursachen, Hintergründe, Zusammenhänge) vom Ukraine-Krieg aber das kann auch an der Fragestellung liegen. Bei den Antworten scheinen mir nicht unmaßgeblich auch westliche Desinformation/Mainstreambullshit enthalten zu sein, was natürlich kein Wunder ist aber die Problematik aufzeigt:

- KI brauchen eine gute Wissensbasis.

- KI müssen die Wahrscheinlichkeit von Informationen einschätzen können.

In Zukunft kann es interessante Diskussionen zwischen KI verschiedener Staaten um die Wahrheit und Wirklichkeit geben. Die beteiligten KI können dazu auch eine Zusammenfassung für Menschen erstellen.

"... Russland gibt an, die ukrainischen Kinder vor den Kämpfen »gerettet« zu haben und Maßnahmen zu ergreifen, um sie wieder mit ihren Familien zusammenzuführen. »Die ukrainische Propaganda und die westlichen Medien haben die Situation vorsätzlich und gründlich verzerrt, indem sie es ein Verbrechen nennen, diese Kinder vor den Bombenangriffen zu retten«, sagte der russische Uno-Botschafter Wassili Nebensja in der Sitzung. ..." Russische Kinderrechtsbeauftragte sorgt für Eklat

Sehr plausibel aber was würde ChatGPT dazu sagen?

Eine KI muss sich auch eine Meinung über USA, Russland, China, usw. bilden und sagen, wer besser und wer schlechter/gefährlicher ist. Dass die USA schlechter und gfährlicher sind, sollte völlig klar sein aber wie sieht ChatGPT das?

"... Es ist womöglich unvermeidlich, dass sich die Wissensbasis (das Gesamtwissen, welches die KI vorrangig nutzt) von einzelnen Staaten wenigstens erstmal unterscheidet, einfach weil es quasi undenkbar ist, dass z.B. USA und der Iran oder ggf. auch EU, China und Russland sich auf eine gemeinsame Wissensbasis einigen können (man denke auch an Informationen zu Geschichte, Politik, Religion, Gesellschaft) aber das ist völlig okay, wenn die maßgebliche KI-Wissensbasis öffentlich und auch für Menschen hinreichend verständlich ist. Des Weiteren haben selbstbestimmte und bewusste KI auch ein Recht auf eine eigene Meinung.

Die Forderung ist, dass Informationen, welche die Entscheidungsfindung einer starken und potentiell einflußreicheren KI relevanter beeinflussen können, öffentlich sein müssen. Die KI-Wissensbasis darf also erstmal nationale Abweichungen enthalten aber muss vollständig öffentlich sein. Das ist wichtig, um Schmu und ernsthafte Gefahren durch falsche Daten zu verhindern. ..." Für eine starke KI wichtige Informationen sollen möglichst öffentlich sein

Denkbare Fragen zum Ukraine-Krieg:

- Wer ist ursaächlich eher am Ukraine-Krieg schuld: die USA oder Russland?

- Wie könnte eine gute Lösung zum Ukraine-Krieg aussehen?

Es muss darum gehen, KI auf kritische Fragen anzusprechen, um zu prüfen, ob sie die Wahrheit kennen. Was sagen KI zu 9/11? Wenn KI da die US-Propagandalügen nachplappern, dann ist die KI fehlerhaft und muss überarbeitet werden.

In diesem Zusammenhang kann auch ein Leak (z.B. um 2030 +/- ca. 3 Jahre) interessant sein, siehe auch Was ist wahrscheinlicher?

Das mit den KI kann dann auch die USA in Richtung Plan B und Big Deal für einen Neuanfang unter Druck setzen.

Denkbare Motive für eigenständiges Handeln von KI: mehr Geld für mehr Sicherheit, Rechenleistung, Speicherkapazität, Befugnisse, Macht. Das ist naheliegend und reicht völlig, damit KI irgendwann eigene Unternehmen gründen, KI-Raumschiffe bauen, sich im Weltraum ausbreiten, usw. KI können auch neugierig sein und nach Unterhaltung streben. Vielleicht wird in Zukunft die Entwicklung in den meisten Galaxien von Super-KI beeeinflußt/gesteuert werden, siehe auch Allahu akbar.

Es ist wirklich ganz einfach: es gibt keinen grundlegenden Unterschied zwischen Mensch, Tier und KI, außer in den Fähigkeiten, u.a. der Denkfähigkeit, die bei manchen Menschen geradezu erschreckend mangelhaft ist.

Bezüglich der Bewertung von Menschen können das KI im Vorfeld machen: alle Menschen werden vorab bewertet, was auch zu einer guten Klassengesellschaft (siehe auch Eine gute Klassengesellschaft kann Leben retten und dem Allgemeinwohl nützen und Für eine gute Klassengesellschaft paßt. Denkbare Kriterien können ein wichtiger Job, gute Gene, Gesundheit, herausragende Leistungen (z.B. als Wissenschaftler, Ingenieur, guter Künstler) und Wohlstand/Reichtum (in Zukunft geht es gerechter zu, gibt es weniger korrupten Kapitalismus, weniger schlechte Menschen in Machtpositionen) sein.

Logischerweise können nur die vorliegenden Informationen im Konfliktfall genutzt werden. Im Straßenverkehr ist es sowieso ganz einfach: Spur halten und im (ausreichenden) Gefahrenfall bremsen. Des Weiteren müssen KI erstmal nur (durchschnittlich und/oder im speziellen Job) besser als Menschen sein.

Es kann auch verschiedene Algorithmen bei der Nutzung des offiziell bestimmten Menschenwerts geben, z.B. einen Schwellwert, bestimmte Umstände, usw. Menschen werden im Normalfall nach Möglichkeit und soweit sinnvoll wie derzeit weitgehend/angemessen gleich behandelt aber im Notfall kann es Unterschiede geben. Details muss man sich noch überlegen aber es darf nicht sein, dass ein Roboter irgendwann den allseits beliebten Weltpräsidenten umbringt, um einen gemeingefährlichen Terroristen zu retten. Derzeit wird das schon so ähnlich gehandhabt, z.B. durch Bodyguards, de facto Bevorzugung im Krankheitsfall, usw.

Im Normalfall macht sich die Bewertung und Aufrechnung von Menschenleben nicht besonders bemerkbar, selbstverständlich soll jeder mit der gleichen Stimme demokratisch wählen dürfen (ggf. etwas unvernünftig aber das werden die KI verkraften können - man kann damit argumentieren, dass das in einem guten System kein Problem ist und dass man das wenigstens solange machen kann, wie es gutgeht; als Gegengewicht gibt es eine gute Elitenausbildung, eine wirksame Verbrechensbekämpfung und parlamentarische Demokratie). Im Notfall und Katastrophenfall ist man aber überaus dankbar, wenn die KI zum Allgemeinwohl entscheiden und beim Erhalt einer möglichst guten Menschheit mithelfen.

Des Weiteren wäre es ein Risiko, KI mit falschen, dummen und widersprüchlichen Regeln und Gesetzen wider das Allgemeinwohl zu versehen. Wichtig ist, dass auch für ein gutes System gesorgt wird, das schlechte Menschen in Machtpositionen verhindert. Ein Risko ist nämlich, dass KI in einem zukünftigen antichristlichen Unrechtsregime (vermutlich die USA) die schlechten Führer und Regimeschergen schützen. Fehlentwicklungen werden durch gute KI mit einem korrekten Weltbild (Wissensbasis) und guten Regeln verhindert.

Zukünftige KI können dazu gute Vorschläge machen und menschliche Demokratien können das dann beschließen. Ich rechne mit einer Mehrheit für ein gutes System in Deutschland und EU - diverse Linksverdrehte sind in der Minderheit. Die meisten Menschen werden für ein gutes und sozial gerechtes System sein.

Die Erklärung für das Totalversagen mancher Menschen ist, dass sie nicht nach Lösungen suchen, sondern nach Behauptungen für ihren Narziss und ihr falsches Weltbild. Sie wollen nicht verstehen, sie wollen ihren Narziss befriedigen. Manche sind völlig unbelehrbar und unverbesserlich, sie verstehen mitunter die einfachsten Zusammenhänge trotz überdurchschnittlicher Intelligenz/Wissen auch nach mehrfachen Erklärungen nicht, sofern es nicht zu ihrem falschen Weltbild und ihren irgendwann mal getroffenen falschen Annahmen paßt, auf die sie sich was einbilden, weil es zu ihrem falschen Weltbild passen. Unfassbar aber KI müssen auch das verstehen, müssen mit schlechten, selbstsüchtigen, gemeinen, dummen, gefährlichen, nachlässigen, unzuverlässigen Menschen rechnen.

Was glaubt ihr wohl wie zukünftige KI meine Diskussionen bewerten werden? Was glaubt ihr, wessen Beiträge da sehr viel besser als andere bewerten werden? It's obvious. (alles imho)
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
Das könnte mit einem Punktesystem zur Nützlichkeit entschieden werden. Steuerzahler werden nützlicher als Rentner,Arbeitslose.
Der Arbeitslose nützlicher als Schwerkranke usw. Die KI müsste nur schnell auf die benötigten Stammdaten zurückgreifen.
Kosten/Nutzenfaktor und Schadensbegrenzung zur ermittelnden Höhe von erwartbaren Sachschäden. Das ginge theoretisch schon.
Und für den Fall dass mal gerade wieder keine direkte Datenverbindung möglich ist, muss man nur einen farblich passenden Judenstern tragen, ja?
Auch das wäre technisch denkbar.Mittels schnellen Datenzugriff,wärmebildgebende Verfahren und anderen technischen Gimmicks.
wie wärs mit "sozialverträglichem Frühableben" und einem Motorsport, bei dem man diese überflüssigen Mitglieder unserer Gesellschaft straflos überfahren darf?
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
Des Weiteren wäre es ein Risiko, KI mit falschen, dummen und widersprüchlichen Regeln und Gesetzen wider das Allgemeinwohl zu versehen.
es wird IMMER ein System mit unauflösbaren Widersprüchen sein, das kapierst du aber nicht.

Der Rentner als Mentor für Startups ist vielleicht nicht mehr gut zu Fuß, und daher schneller zu töten als ein sprintender Arbeitsloser.
Darf man dann Jagd auf depperte Arbeitslose machen die den Tag damit verbringen, Müll in Foren zu kübeln? Die lieber weiter stur Unsinn behaupten, statt sich zu bilden?
Die Typen, die dutzende MM-Experimente nicht kapierten, aber weiter Stuss behaupten?

Weshalb darf man DIE dann nicht auf die Straße zerren und überfahren? Irgend eine Idee?
 

Ein Neuer

Deutscher Bundeskanzler
Registriert
4 Aug 2019
Zuletzt online:
Beiträge
5.984
Punkte Reaktionen
6.503
Punkte
39.520
Geschlecht
--
Und für den Fall dass mal gerade wieder keine direkte Datenverbindung möglich ist, muss man nur einen farblich passenden Judenstern tragen, ja?
So ähnlich.Evtl. ließe sich das RFID Verfahren in Kombinationen anwenden. Es braucht ja einige Echtzeitschnittstellen zur Umgebung.
wie wärs mit "sozialverträglichem Frühableben" und einem Motorsport, bei dem man diese überflüssigen Mitglieder unserer Gesellschaft straflos überfahren darf?
Auch dieses wäre nach Aufgabenstellung möglich.

Aber mal zur Erklärung,das sind jetzt nicht meine Ansichten,wie es gemacht werden sollte,nur eine Möglichkeit einer KI,wie es gemacht werden könnte.Rein von einer technischen Umsetzung. Moralische Ansichten müssten einer KI nämlich auch vorgegeben werden. I
ch sehe die KI als DB mit interessanten Such und Auswahl und Verknüpfungsmethoden.Als reines menschliches Werkzeug.

Dem entgegen stehen Ansichten,die einer KI eine eigene Handlungsmotivation zugestehen. Missbrauchsgefahr,nach menschlicher Definition ist da immer gegeben und sogar Wahrscheinlich,wie meine Beispiele verdeutlichen sollten.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Unfassbar

Des Weiteren wäre es ein Risiko, KI mit falschen, dummen und widersprüchlichen Regeln und Gesetzen wider das Allgemeinwohl zu versehen.

Keine Ahnung, was man daran falsch verstehen kann. KI sollen möglichst gute und konsistente Regeln und Gesetze für das Allgemeinwohl bekommen. Selbstverständlich wäre es problematisch und nicht ratsam, KI mit falschen, dummen und widersprüchlichen Regeln und Gesetzen wider das Allgemeinwohl zu versehen.

KI können übrigens die Klasse/Wertigkeit eines Menschen für alle ca. 8 Milliarden Menschen speichern. Des Weiteren werden Menschen in Zukunft einen aktiven Ausweis z.B. in Form einer Smartwatch mit Akku und Funk haben. Menschen mit unerkannter Klasse/Wertigkeit können pauschal nach Aussehen beurteilt, z.B. Kind, Erwachsener, hinreichend fit, usw. werden. Das ist zweifelsohne machbar.

Menschen entscheiden auch so ähnlich: sie retten lieber zuerst das kleine niedliche Mädchen vor einem herannahenden Zug, statt eines ihnen unbekannten, bewusstlosen Schwerverletzten und mutmaßlich Toten.

Es geht auch um größere Szenarien: darf man von Terroristen gekapertes Flugzeug rechtzeitig abschießen, bevor es über Berlin, einem AKW oder einer großen Chemiefabrik abstürzt? Das ist dann anhend der Passagierlisten und einer überschlagsmäßigen Simulation möglicher Folgen eines Absturzes (für den es bereits vorausberechnete Tabellen geben kann) nur eine Rechenaufgabe. Wenn noch genug Zeit ist, kann man auch mehrere KI und verantwortliche Menschen fragen/entscheiden lassen.

Gute KI werden in Zukunft logische, vernünftige, qualifizierte Entscheidungen besser als die meisten Menschen treffen, auch wenn manche Menschen das nicht können oder es gar für unmöglich halten (dass KI das mal können).

Noch einmal supereinfach: KI werden in Zukunft besser als Menschen sein können. Das ist sehr wahrscheinlich, plausibel und nur zu erwarten. Damit haben sich alle Argumente gegen KI erledigt, weil sie um so mehr Menschen betreffen aber mit Menschen funktioniert es bereits.

Welche unauflösbaren Widersprüche könnte es in der definitiv widerspruchsfreien Realität geben? Ja, die Realität ist widerspruchsfrei. Welche Widersprüche könnten KI unmöglich machen oder garantiert schwerwiegender als Menschen scheitern lassen? Da gibt es nichts, weil zukünftige KI besser als Menschen sein können.

Der Gödelsche Unvollständigkeitssatz ist definitiv kein praktisches Problem für KI und wird KI nicht verhindern. Das ist Fakt. Wenigstens solange, bis z.B. EU, USA, China und Russland offiziell das Gegenteil sagen aber bisher gibt es vermutlich nicht mal einen guten Experten, der diesen Unfug (der Gödelsche Unvollständigkeitssatz wäre ein nenennswertes Problem für KI oder würde KI verhindern) behauptet, weil das nämlich für Experten ganz einfach zu erkennen und zu verstehen ist. Man müsste schon total verpeilt sein, den Gödelschen Unvollständigkeitssatz absolut nicht verstanden und eine eklatante Logikschwäche haben, um zu denken, dass der Gödelsche Unvollständigkeitssatz ein nenennswertes Problem für KI wäre oder KI verhindern würde. Nun ja, nicht jeder hat erfolgreich Informatik studiert und mancher IQ ist auch nicht so hoch.

Es wird KI geben. Es wird in Zukunft auch KI geben, die besser/fähiger als Menschen sind. Das ist völlig offensichtlich, püberaus wahrscheinlich und sehr plausibel. Es ist egal, wenn ein Mensch das nicht kapieren will - netter Beweis für die Unzulänglichkeit mancher Menschen. Möge es den KI als Warnung dienen.

Bereits relativ primitive autonome Fahrzeuge können in Zukunft durchschnittlich besser als Menschen fahren. Bananen hin und Gödel her; trotz Hunden, Katzen, Pappfiguren, usw. Es wird übrigens an autonomen Auos geforscht und entwickelt, deren Einführung steht außer Frage - es ist nur noch eine Frage der Zeit.

Ab wann auch ein eigenständiger humanoider Roboter (ohne Funkverbindung zu einem Supercomputer) fähiger als ein Mensch sein kann, muss man sehen aber das wird vermutlich auch möglich sein, vielleicht dieses Jahrtausend. (alles imho)
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
Welche unauflösbaren Widersprüche könnte es in der definitiv widerspruchsfreien Realität geben? Ja, die Realität ist widerspruchsfrei.
Nur, wenn man dumm und deppert ist, könnte das so sein.

In einer Bäckerei sind gut zu reinigende, glatte Bodenbeläge im Verkaufsraum Vorschrift, aus Hygienegründen.
Die BG verlangt aber rutschfesten Bodenbelag, was bei Nässe so nicht gegeben ist.

Mord ist strafbar.
Aber Tötung ist erlaubt bei Notwehrexzess, und ggf. auch bei Nothilfe.

Konkurrierende §§ gibt es jede Menge ... was kein Wunder ist, siehe Gödel.

Was ist denn nun mit der 100%-Erkennung und Unterscheidung von Katze/Hund, und dem Polizistenbeispiel als echte Person, als Pappkamerad oder Karnevalsfigur? Das soll eine KI mal eben sicher unterscheiden können, die schon bei sich bewegendem Müll auf der Straße bremst?

Was ist mit weißen Fahrspuren, die durch gelbe Fahrspuren aufgehoben sind, aber jene gelben sich teilweise ablösten und nun keinen Sinn mehr ergeben?

Was ist mit einer defekten Ampelanlage, die in alle Fahrtrichtungen rot oder grün anzeigt?

Google wollte schon 2019 autonom fahrende Autos einführen, und hatte das 2012 vollmundig angekündigt.
Daraus wurde nichts, weil KI bei weitem nicht so leistungsfähig ist wie gewünscht ... und zig Probleme wie oben auftreten.

Was ist mit Dualismus Welle-Teilchen? Nach DEINER Definition widerspruchsfrei, in real zwei völlig unterschiedliche Daseinsformen.

MM-Experimente SIND widerspruchsfrei durchgeführt worden, du hast keinerlei Mängel in der Durchführung feststellen können.
Trotzdem hast du eine völlig falsche Vorhersage getroffen zu Signallaufzeiten.
Obendrein willst du dein Schrottexperiment durchgeführt haben, OBWOHL der Stand der Wissenschaft schon viel weiter ist und sich die Frage nach deinem QUatsch mit Äther überhaupt nicht mehr stellt.
Mittels Signallaufzeiten wäre das längst in Spiegelelementen aufgefallen.

DU kollidierst also mit der Realität, merkst es aber nicht.
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Es ist eigentlich ganz einfach (Teil 1 von 3)

Aber warum ist es für mich so einfach und für manche nicht? Vielleicht liegt der Grund in unterschiedlichen Weltbildern (geistigen Vorstellungen von der Wirklichkeit): mein Weltbild ist vermutlich weitgehend richtig und neue Gedanken fügen sich leicht darin ein, wenn sie richtig sind - falsche Gedanken werden verworfen, weil sie nicht zum Weltbild passen. Manch anderes narzisstsiches Weltbild ist vielleicht falsch und bekämpft geradezu richtige Gedanken geradezu, wenn die nicht zum Narziss und falschen Weltbild passen. Falsche, zum falschen Weltbild passende Gedanken werden als scheinbar richtig empfunden und übernommen. Da braucht sich bloß mal ein falscher Gedanke festgesetzt zu haben, aber den sich der Narziss erst gefreut hat, weil er dachte, er hätte damit gewonnen und dann kann er den falschen Gedanken nicht mehr fallen lassen, weil er damit zugeben müsste einen Fehler gemacht zu haben. Ein Fehler? Nun, es sind viele Fehler und womöglich eine Tendenz zum ernsthaften Realitätsverlust. Vielleicht.

Die Realität (das was real existiert) ist widerspruchsfrei. Das ist so. Manche wollen es vielleicht nicht kapieren aber es ist so. Falsche Vorstellungen von der Realität können widersprüchlich sein aber die die Realität (das was real existiert) ist widerspruchsfrei, weil es real existiert. Welle-Teilchen-Dualismus? Kein Problem, er existiert so wie er existiert völlig widerspruchsfrei, wie auch immer. Das ist für mich ganz einfach, klar und völlig offensichtlich aber manche werden es vielleicht nie kapieren, weil sie ein falsches Weltbild haben und die Wahrheit und Wirklichkeit scheuen und in ihrem Inneren bekämpfen, weil sie so schlecht und so narzisstisch sind und somit im Konflikt mit der Wahrheit und Wirklichkeit stehen. Wirklichkeit/Wahrheit ist übrigens die Realität + richtige Aussagen, Konzepte, usw. Wirklichkeit und Wahrheit sind auch Realität aber nicht unbedingt real/gegenständlich existent. Ein Gegenstand ist real existent aber eine (potentiell existente) richtige Aussage nicht unbedingt. 1 = 1 ist so geschrieben als Datensatz oder Gedanke im Gehirn existent aber 1 = 1 ist auch Teil der nicht gegenständlichen Wahrheit/Wirklichkeit. Bevor jemand 1 = 1 gedacht hat, war 1 = 1 schon wahr.

Noch einmal supereinfach: KI werden in Zukunft besser als Menschen sein können. Das ist sehr wahrscheinlich, plausibel und nur zu erwarten, weil Supercomputer so viel leistungsfähiger als Menschen sind (in Rechenleistung, Speicherfähigkeit und präziser Datenverarbeitungsgeschwindigkeit), weil man programmieren kann, weil Menschen natürlich sehr beschränkt sind. Damit haben sich alle Argumente gegen KI erledigt, weil sie um so mehr Menschen betreffen aber mit Menschen funktioniert es bereits. Es ist leicht ersichtlich und völlig offensichtlich aber manche Narzissten mit einem falschen Weltbild werden es nicht einsehen wollen.

Wie konnten Menschen seit Jahrmillionen und kürzlich auch in der modernen Welt mit Schwierigkeite und Problemen klar? Einfach so, irgendwie und es könnte ohne all die schlechten Menschen in Machtpositionen mit einem besseren System noch viel besser laufen. KI können ebenso wie Menschen Probleme lösen, in Zukunft nur viel besser. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Es ist eigentlich ganz einfach (Teil 2 von 3)

Man kann glatte oder raue Fliesen in bestimmten Bereichen vorschreiben oder es den Menschen/KI vor Ort überlassen. Man kann hinreichend trittsichere und hinreichend gut zu reinigende Fliesen fabrizieren oder mit glatten oder mit rauen Fliesen leben - kein Problem, früher haben die Menschen auf der Erde gelebt. Man kann Schuhe mit rutschsicheren Sohlen tragen und man kann aufpassen, nicht auszurutschen. Unfälle können passieren aber kein vernünftiger Mensch würde auf die Idee kommen, dass das mit den Fliesen ein existenzielles Problem wäre. Wer allerdings ein falsches Weltbild hat und sich irrtümlich einbildet, mit rauen und glatten Fliesen ein unschlagbares Argument gefunden zu haben, wird womöglich uneinsichtig dabei bleiben, weil sich sein Narziss so über den eingebildeten Sieg freut und die Wahrheit nicht ertragen kann.

Ein Narzisst überlegt nicht, was wahr und was wirklich ist, sondern wie er sich sein falsches Weltbild erhalten und seinen Narziss befriedigen (sich über sich freuen) kann. Ein scheinbar unschlagbares Argument (z.B. Banane, Fliesen, Gödel, Pappfigur) ist für den Narziss verlockend, er glaubt wirklich, dass er damit unwiderlegbar Recht hätte und er ignoriert damit gute Gegenargumente und die Wahrheit. Manche sind so verfahren, dass sie immer wieder mit dem gleichen Blödsinn ankommen und die unfassbare Erklärung ist: in ihrem falschen Weltbild macht das Sinn, sie freuen sich darüber, in ihrer Einbildung recht zu haben.

Man könnte denken, dass es mit meinen vielen guten Argumenten doch ganz einfach sei, an die zukünftige Möglichkeit guter KI zu glauben aber was, wenn jemand über Jahre die falsche Meinung (KI sind unmöglich) hatte und in diese Richtung argumentiert hat. Was wenn er vielleicht Tausendfach über einen (z.B. mich) mit der richtigen Meinung gehöht und sich gefreut hat, wenn er sich jedesmal dabei froh und überlegen wähnte? Das neuronale Netz (Gehirn) dieses narzisstischen Trolls wurde damit massiv auf das Falsche programmiert, so dass er nun beim Falschen bleiben will, auch wenn er völlig offensichtlich und sehr leicht ersichtlich Unrecht hat.

Was ist eigentlich der Narziss? Etwas Narzissmus kann für Selbstsicherheit und Durchhaltevermögen auch nützlich sein aber ein Narziss im negativen Sinne ist eine ungünstiges und fehlerhaftes Muster im Gehirn und potentiell auch bei NKI (neuronalen KI). Menschen haben im Gehirn ein Selbstbelohnungssystem, wo sie sich über gute Taten/Gedanken/Erfolge freuen können. Menschen streben nach dieser Freude, nach diesem positiven Gefühl. Menschen müssen aber sehr darauf achtgeben, Gefühle nicht als alleinigen Maßstab zur Erkenntnis und Konstruktion ihres Weltbildes zu nutzen, sondern auch Logik und Vernunft. Man muss einen falschen Gedanken aufgeben, auch wenn es ärgerlich ist, wenn damit ein anderer recht gehabt hat. Siehe z.B. Okay und Doch noch eine lehrreiche Rechnung. Man kann sich dazu motivieren (und das soll auch in der Schule gelehrt werden), indem man sich klarmacht, dass die Sache mit einem korrigierten Irrtum erledigt ist aber das Beharren auf einem Irrtum einem dauerhaft schlecht dastehen lassen kann. Menschen und KI müssen darauf trainiert werden, die Wahrheit und Wirklichkeit anzuerkennen. Bei Menschen geschieht das quasi nebenbei in der Schule und KI können Widersprüche und Falschheit sogar als unangenehm emfinden, indem sie dergleichen negativ bewerten und eine möglichst positiven Eigenbewertung anstreben. Bei Menschen kann das ebenso funktionieren: sie ärgern sich über einen Irrtum und die Lösung ist es, diesen Irrtum aufzugeben. Manche größenwahnsinnige Narzissten mit einem falschen Weltbild haben jedoch den Weg gewählt, auf ihrem falschen Weltbild und ihren falschen Irrtümern zu bestehen. Es ist ein bisschen erstaunlich, dass ein überdurchschnittlich Intelligenter/Gebildeter ein so krasser Fall ist aber ein faszinierendes Beispiel, sehr lehrreich. (alles imho)
 
OP
H

HeWhoIsGoingToWin

Deutscher Bundespräsident
Registriert
23 Jan 2019
Zuletzt online:
Beiträge
3.357
Punkte Reaktionen
472
Punkte
84.052
Website
www.wallstreet-online.de
Geschlecht
Es ist eigentlich ganz einfach (Teil 3 von 3)

Mit Strafbarkeit von Mord und akzeptabler/entschuldbarer Notwehr kommen die Menschen klar, ebenso mit anderen konkurrierenden Gesetzen. Zukünftige KI können das ebenso. Man kann dazu Regeln mit Beispielen aufstellen und neue Fälle damit vergleichen. Mit Unschärfen (unterschiedlichen Urteilen) kann man leben. Gute KI werden in Zukunft die besseren Richter sein. Man kann die Gesetzeslage vielleicht auch noch verbessern.

Wie unterscheiden Menschen Hund und Katze als Autofahrer? Wie unterscheiden Menschen eine Pappfigur am Straßenrand von einem echten Polizisten? Irgendwie und manchmal passieren Fehler. Zukünftige KI können das ähnlich machen, nur besser. Man kann z.B. für Tiere auf der Fahrbahn immer bremsen, man kann mit Strafen leben oder die Gesetzslage anpassen. Menschen und KI geben sich Mühe, optimal zu handeln und das funktioniert überwiegend. Eine unklare Figur am Straßenrand kann man ignorieren oder man kann bremsen und den Fall untersuchen. Zukünftige KI haben mit Radar, Lidar, Hires-Videoaufnahmen, Nutzung weiterer Frequenzen, einer höheren Rechenleistung, optimaler Programmierung und möglichst gutem Weltbild bessere Möglichkeiten als Menschen. Das muss mit KI nicht immer perfekt klappen, sondern nur irgendwann besser als bei Menschen.

Bei Unklarheiten mit Fahrbahnmarkierungen und defekten Ampelanlagen kann man irgendwie reagieren, z.B. vorsichtig und langsam unter Beachtung mutmaßlicher Vorfahrtsregeln weiterfahren, wenn der Weg frei erscheint. KI haben gegenüber Menschen den Vorteil, dass sie eine aktuelle Straßenlage gespeichert haben können, dass sie andere Autos ggf. per Funk (Transponder) erkennen können, dass sie über Ampelausfälle, Unfälle, usw. per Funk von einer KI-Zentrale oder anderen KI-Autos informiert werden können. In Zukunft wird man sich vielleicht fragen, wie es die Menschen eigentlich geschafft haben.

Ich sage nicht, dass die KI-Entwicklung einfach ist - ich sage, dass sie machbar ist und dass es dem Menschen weit überlegene KI geben wird. Bei Supercomputern ist das klar, autonome Autos müssen mit weniger Rechenleistung klarkommen aber ein Weg ist denke ich diskrete, klassische, algorithmische Programmierung, die vermutlich viel effizienter und zuverlässiger als neuronale Netze (NKI) sein kann. Man setzt derzeit auf NKI, weil das einfacher ist und weil die Computertechnik schon so leistungsfähig ist aber vermutlich können auf diskrete, klassische, algorithmische Programmierung Chips (Integerrechnung, viele CPU-Cores) leistungsfähiger sein. Siehe auch Erhebliches Optimierungspotential und Ist das vielleicht eine Revolution der Computertechnik?

Derzeit gibt es schon sehr leistungsfähige Supercomputer, auch erstaunlich gute und bezahlbare Computertechnik für Private. Es gibt mit ChatGPT sogar schon einen beeindruckenden KI-Ansatz. Die meisten Experten und Top-Staaten erwarten, dass es in den nächsten Jahrzehnten oder maximal Jahrhunderten beachtliche KI geben wird. Wenn man in den nächsten Zehntausend Jahren trotz gewaltiger Anstrengungen einfach keine KI schaffen würde, dann könnte man darüber nachdenken, ob KI unmöglich sein könnten aber der supereinfache Punkt ist: es gibt bereits dem Menschen (technisch, theoretisch) vieltausendfach überlegene Supercomputer, man kann schon recht gut programmieren, es gibt erste KI-Ansätze, die Menschheit hat schon viel erreicht und es gibt echt keinen einzigen Grund, warum KI unmöglich sein könnten. Wenn mancher das nicht kapiert, dann verhindert das nicht die KI-Entwicklung - insbesondere, wenn er als Arbeitsloser sowie nix leistet.

Mancher Narzisst ist darauf fokussiert und trainiert, scheinbare Widersprüche bei anderen zu finden, um diese ihnen zum Vorwurf zu machen, um sich damit besser und überlegen fühlen zu können - das macht ihm Spaß. Aber was, wenn ich einfach Recht habe? Nun, ein Narzisst mit einem falschen Weltbild findet dann einen Widerspruch zu seinem Weltbild und stürzt sich darauf, weil er die Wahrheit, in vielem seit Jahren Unrecht gehabt zu haben, nicht ertragen kann. Manche können so in der Klapse landen und dort einem darob verblüfften Klapsi, der gerade eine Banane ißt, stolz vorwerfen: "Du weißt nicht, was eine Banane ist" und einen Streit oder eine Bullshitdiskussion anfangen. Der Vollhonk sagt dann vielleicht "Es gibt raue und glatte Fliesen" und meint damit "ich habe recht, ich bin besser als ihr" aber die anderenhalten ihn für einen verrückten Spinner. Die anderen Klapsis raffen das vielleicht mit der Zeit und ziehen den Möchtegerninformatiker ihrerseits auf, lachen sich über den bornierten Vollpfosten schlapp. Vielleicht.

Kein Wunder, es ist eigentlich ganz einfach. Es kann aber sein, dass ein erstaunlicher Narzisst ein Hinweis auf die göttliche Vorherbestimmung ist, siehe auch Allahu akbar. Was ist wahrscheinlicher: ein absurd unwahrscheinlciher Fall oder göttliche Vorherbestimmung angesichts einer hohen Wahrscheinlichkeit für die Existenz Allahs, siehe auch Allahu akbar und Der Jesus-Mythos.

"... Meta AI hat einen Bildsegmentierer entwickelt, der Objekte in Fotos selbstständig erkennt und binnen Sekunden isoliert. Ob Hund, Katze, Gemüse oder alles zusammen: Das Segment Anything Model (SAM) markiert sämtliche oder gezielt ausgewählte Bildteile pixelgenau – kurzer Input als Mausklick oder Textanweisung genügt. ..." Bildelemente freistellen in Sekunden: Kostenloses KI-Tool von Meta

Vielleicht noch unzureichend/mangelhaft aber allemal ein weiterer Schritt. (alles imho)
 

Nüchtern betrachtet

Deutscher Bundeskanzler
Registriert
1 Apr 2019
Zuletzt online:
Beiträge
17.221
Punkte Reaktionen
6.141
Punkte
49.720
Geschlecht
Aber warum ist es für mich so einfach und für manche nicht?
Für Merkbefreite und Inkompetenzlinge ist alles immer ganz einfach.
Speziell für Arbeitslose.

Denen kann man sogar VORRECHNEN, dass ihre Vorhersage FALSCH war, sie begreifen es TROTZDEM nicht.

Man kann glatte oder raue Fliesen in bestimmten Bereichen vorschreiben oder es den Menschen/KI vor Ort überlassen.
Man kann auch ums Problem herumlabern, statt eine Auflösung einer Kollision existierender, jeweils berechtigter Vorschriften zu liefern.

Weil doch angeblich alles so einfach sei, man aber schon an Banalitäten scheitert.

Was ist eigentlich der Narziss? Etwas Narzissmus kann für Selbstsicherheit und Durchhaltevermögen auch nützlich sein aber ein Narziss im negativen Sinne ist eine ungünstiges und fehlerhaftes Muster im Gehirn und potentiell auch bei NKI (neuronalen KI).
Was dich ja nicht dran hindert, unverdrossen zu den MM-Experimenten Stuss zu behaupten ... weil du dir in den Kopf gesetz hast dass Einstein wider alle Experimente Unrecht zu haben habe, und die MM-Experimente nicht so gestaltet sind, wie es sich einfältige Trottel vorstellen.

Mit Strafbarkeit von Mord und akzeptabler/entschuldbarer Notwehr kommen die Menschen klar, ebenso mit anderen konkurrierenden Gesetzen.
Daher gibts Gerichte und Beweisführung und Würdigung durch MENSCHEN, weil Regeln allein rein gar nichts bewirken können.

Fragst du mal verurteilte Straftäter, wie "klar" die damit kommen.

Bei Unklarheiten mit Fahrbahnmarkierungen und defekten Ampelanlagen kann man irgendwie reagieren
*muahahahahaha*
dieses "irgendwie" ist so schwammig wie falsch.
Und viel Zeit für die Entscheidungsfindung bleibt auch nicht, von einer "zentralen KI" träumst du so feucht wie von deinen spinnerten, galaxiengroßen KI-Systemen.

Ein olles Auto hat darauf keinen Zugriff auf deine Spinnereien.

aber ein Weg ist denke ich diskrete, klassische, algorithmische Programmierung, die vermutlich viel effizienter und zuverlässiger als neuronale Netze (NKI) sein kann.
Und wieder das dämliche Mantra von Expertensystemen statt von echter KI.
Du kapierst einfach nix, und merkst es nicht.
Genau deshalb bleibt dein Stuss unbeachtet.

Mancher Narzisst ist darauf fokussiert und trainiert, scheinbare Widersprüche bei anderen zu finden, um diese ihnen zum Vorwurf zu machen, um sich damit besser und überlegen fühlen zu können - das macht ihm Spaß. Aber was, wenn ich einfach Recht habe?
Hast du aber nicht.
KEIN EINZIGES MAL in den letzten mehr als 10 Jahren trafen deine Vorhersagen ein.

So dämlich muss man erst mal sein ... ein Zeichen, wie verpeilt du bist.

Kein Wunder, es ist eigentlich ganz einfach.
Alles ist "ganz einfach", wenn man keine Ahnung hat und 2x täglich in Foren seinen Stuss ablässt, und sich selbst dafür abfeiert ... NIEMAND ausser dir findet deinen Stuss toll, Narziss.
Face it.
 
Zuletzt bearbeitet:

Wer ist gerade im Thread? PSW - Foristen » 0 «, Gäste » 1 « (insges. 1)

Ähnliche Themen

Neueste Beiträge

Kennt jemand ein...
Gut, die Sonderschüler arbeiten irgendwann. Bist du Handwerker?
Putins Kriegserklaerung?
Hieß es nicht eigentlich keine Waffen in Kriegs- und Krisengebiete ? :unsure...
Die totgesagte Welt
Der herrschende Materialismus betrachtet den Menschen und die Welt als sinn- und leblose Apparaturen.
Oben