Wenn man bedenkt wie viele Menschen unterwegs sind, die eigentlich nicht mehr fahrtüchtig sind: Drogen, Alkohol, dem einen ist der Ehegatte gerade gestorben, der andere ist übernächtigt, der dritte fährt nach einer Krebsdiagnose vom Arzt heim. Die KI wird das besser hinkriegen, aber ich sag's ja: wir selbst werden zu nutzlosem Heimtierdasein degradiert.
Sicherheit ist nicht alles im Leben.
Jetzt zog ich tatsächlich in Betracht, du meintest es ernst wobei, das ist ja noch immer möglich. Ich fand den Gedanken interessant und wollte darauf antworten, aber nicht mit einer "wall of text" (da wies mich freundlicherweise mal jemand drauf hin, dass das niemand lese, wobei es ja doch mal vorkommt)
Du kannst gerne noch antworten, wie du geantwortet hättest, wenn ich nicht jetzt schon begründen würde .. also, auf ein Neues, auf die Gefahr hin, dass mir das nun entgeht .. :
Mauz, meinst du hier u.a. auch Quantenverschränkung? -
Wie auch immer genau gemeint, ich denke, es würde das Problem nicht lösen. Um nicht zu umfangreich zu begründen .. damit es nicht ausufert, denn ich halte das für ein endloses Thema im Grunde, dem wir uns noch oft stellen werden müssen, sofern es Demokratie weiterhin geben würde in dazu ausreichendem Umfang:
Schon jetzt entscheiden ja Algorithmen über Menschenleben. Aus der Medizin wurde über solche berichtet, die über Operationen entscheiden sollen. Zum Beispiel im Hinblick auf zu erwartenden Erfolg versus Risiken. Natürlich sind dann auch Parameter wie Forschungsergebnisse, Lebensalter des Patienten etc. -hoffentlich - einprogrammiert, Lebensalter aber sicher. Hier entzünden sich etliche ethische Fragen. Das in der Reportage fokussierte Problem: die Firmen, die die Algorithmen programmieren, sind völlig intransparent. Wer arbeitet dort, wie genau ist der Stand des Wissens eingearbeitet, ist er repräsentativ genug, wie gewichtet? Weiter: wie wird der Wert eines Menschenleben (beispielsweise eines älteren) berechnet. Die Zustände von Menschen können selbst im Hinblick auf Risiken sehr verschieden sein. Welche Rolle spielt der Willen des Patienten selber? Welche die Einschätzung seiner Ärzte und des Operateurs? Geht es auch um "soziokulturelle" Kosten-Nutzen-Abschätzungen? Welche Parameter dürfen eine Rolle spielen und wie ist ihre Gewichtung untereinander? ... und so weiter.
Davon mal abgesehen, Moral lässt sich nicht berechnen, die menschlichen Faktoren fallen weg, je mehr Maschinen /Computer Entscheidungen überlassen werden. Es kommt noch etwas hinzu: kommerzielle Aspekte werden, wie überall, zu allererst berücksichtigt und es spielt dann eine entscheidende Rolle, welche Menschen die Algorithmen programmieren - sind ihre Einschätzungen oder Datengrundlagen überhaupt selbst repräsentativ? -Man sieht dann auch schnell, es kommt nicht mehr auf das Individuum an - wir sind aber alle Individuen. Nimmt man z.B. Statistiken, damit ist es ähnlich wie mit Umfragen - Beispiel: wenn ich an Umfragen oder Tests teilnehme, kommt es so gut wie nie vor, dass meine Antworten überhaupt drin vorkommen. Und die Grundlage für meine Antworten sind meistens viel zu schwammig und nicht lebens-echt, sie sind nicht real time und finden nicht aktuell in meinem Leben (im "Moment") statt.
Auch hier verschieben sich also erheblich Gewichte menschlichen Verhaltens und menschlicher Wahrnehmung.
Selbst bei bestmöglichem Fortschritt wird nie eine optimale Lösung technischer Natur den Menschen wirklich ersetzen.
(Ich lasse hier bewusst Einsatzmöglichkeiten weg, die durchaus sinnvoll sind und nein, ich bin kein Maschinenstürmer - schliesslich kommuniziere ich gerade hier über eine.)
[Edith findet: "Um nicht zu umfangreich zu begründen .." -> ]
...also, der Straßenalltag ohne menschliche Fahrer wird nicht kommen. Gerüchten zufolge gibt es auf der Straße auch noch andere Objekte als Autos. Mein Fahrrad kannst du mir entweder mit körperlicher Gewalt wegnehmen oder ich werde es benutzen.
Mit Naturgesetzen kann man nicht verhandeln. --Harald Lesch
Ein Atomkrieg würde die Menschheit auslöschen. Hätte aber auch Nachteile.
Du kannst ja gerne weiter treten, aber das Steuern wird als nächstes auch beim Fahrrad autonom
Wäre ja noch schöner, wenn wir die ganzen Autos sicher machen und dann die Harakiriradfahrer die schöne Vision Zero kaputt machen
Daran wird ja schon gearbeitete, wenn auch vorerst vor allem dafür das sie sich automatisch eine Ladestation suchen.
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
Es gibt Zwischenstufen zwischen "Wall of Text" und Ein-Wort-Antwort. Ich fand das Thema zu komplex und wollte da schon mehr aus dir rauskitzeln. Ich selbst habe mir noch gar keine Gedanken darüber gemacht um mauz' Frage eindeutig zu beantworten. Die "Ja"-Antwort entspricht also (noch) nicht meiner Meinung, sondern war nur provokativ gemeint
Du argumentierst hier zu sehr mit althergebrachten Algorithmen/Methoden. Mauz hat explizit nach Quantencomputern gefragt und ob diese ein Verständnis für abstrakte Begriffe (Würde, Freiheit etc.) entwickeln könnten. Deine Ausführungen beantworten diese Frage mMn nicht. Bzw. sie zeigen nur, dass man das praktisch nicht korrekt umsetzen wird.
Ein weiterer Denkanstoss meinerseits: auch der Mensch ist nur ein System, dass eingehende Sensorsignale (Sinne) in elektrische Signale umwandelt (Nerven). Diese werden dann auf Grund von Trainingsdaten (Erinnerungen/Erfahrungen) verarbeitet (Gehirn), evtl. als neue Erfahung gespeichert und fall nötig wieder per elektrisches Signal an Aktoren (Muskeln) übertragen. Dieses System kann mit den abstrakten Begriffen umgehen. Warum sollte das für ein (Quanten-)Computersystem unmöglich sein?
Ein normaler Computer kann einen Quantencomputer simulieren. Mit anderen Worten: alles was ein Quantencomputer kann, kann auch ein normaler (der Quantencomputer ist allerdings bei manchen Problemen sehr viel schneller).
Das Problem mit den abstrakten Begriffen ist, dass man sich da neben den technischen Problemen einen Haufen philosophischer Fragen ins Haus holt. Besteht der Mensch nur aus Materie oder haben wir auch einen Geist? Falls ersteres, kann man die abstrakten Begriffe dem Computer theoretisch beibringen, notfalls indem man das menschliche Gehirn simuliert. Falls letzteres, haben wir da schlechtere Karten.
Und ich sehe immer noch nicht, warum das wichtig sein sollte, um ein Auto zu steuern. Wir können ein Auto zum Beispiel so programmieren, dass es im Zweifel gegenüber anderen Verkehrsteilnehmern großzügig ist. Das heißt nicht, dass es versteht, was Großzügigkeit ist, aber wo ist der Vorteil, wenn es das tut?
Das ist vielleicht auch besser so, wenn das autonome Auto nur so viel kann, wie es können muss. Sonst philosophiert es am Ende über das Sein und vergisst, auf den Verkehr aufzupassen. Siehe HAL 9000.
Verstand op nul, frituur op 180.