...
Die Art und Weise, wie diese "Frage nach der Technik" (Heidegger, 1953)
https://monoskop.org/images/ … e_Frage_nach_der_Technik.pdf
im
politischen Diskurs geflissentlich ausgeblendet wird, ist tatsächlich einer der Hauptgründe, warum ich mich so angewidert von den öffentlichen Medien abgewendet habe.
Problematisch erscheint mir vor allem der Umstand, dass die meisten, denen "die soziale Frage" am Herzen liegt, sich traditionell durch eine unerträgliche Technologie-Ignoranz auszeichnen, allen voran diejenigen, die im Schuldienst ihren langen Marsch angetreten haben. Wer hingegen einigermaßen Plan hat, scheffelt mit seinen Kenntnissen Kohle, und schert sich um soziale Gerechtigkeit einen Dreck.
Bis vor wenigen Jahren habe ich dieses Überlegenheitsgefühl gegenüber den Maschinen vollauf geteilt weil
• die Dinger keinen freien Willen haben
• die Dinger keinen Sex haben
• ich selber einige Programmiersprachen beherrsche.
Das reicht aber nicht mehr.
Was die KI von einem Taschenrechner unterscheidet, ist die Tatsache, dass die Algorithmen nicht mehr perfekt deterministisch die Aufgabe zu Ende berechnen, sondern fehlertolerant versuchen, ein vorläufig bestmögliches Ergebnis zu ermitteln. Aufgabenspezifisch. Neue Geräte gehen genau dann an den Markt, wenn die Fehlerquote so weit eingegrenzt wurde, dass kein Rückrufskandal zu befürchten und der illusorische Nimbus der Perfektion nicht gefährdet ist. Das ist Pragmatismus pur.
Die Geräte sind aber hochgeradig fehlbar, was die Älteren unter uns bis zu windows98 noch täglich zu spüren bekommen haben.
Nur durch diese Fehlbarkeit konnten die graphentheoretischen Begrenzungen, die schon beim Schach eine vollständige Berechnung des Möglichkeitenraums technisch unmöglich gemacht hatten, überwunden werden.
Aus meinem bescheidenen Kenntnisstand heraus sehe ich "computer-historisch" vor allem drei Bereiche, in denen fehlertolerante Architekturen zu Fortschritten geführt haben:
1) Das Exception-Management höherer objektorientierter Programmiersprachen.
Die zentralen Bausteine eines komplexen Computersystems liefern auch dann Ergenisse, wenn einzelne Teilbereiche versagen oder nicht rechtzeitig fertig werden. (Wer es schafft, dieses Prinzip auf die Erotik zu übertragen, kann btw eine Menge Geld verdienen) Das war im Grunde schon auf den ersten unixoiden Mehrplatz-Großrechnern realisiert, auch wenn man das damals noch nicht objektorientiert genannt hat, und mit XP hat auch Bill Gates das Problem halbwegs in den Griff bekommen.
2) Neuronale Netze (teils in Verbindung mit fuzzy logik). Hier wird üblicherweise eine wieauchimmerkomplexe, anfangs "plastische" kybernetische Struktur durch Training in der "Wirklichkeit" so getuned, dass es nach Abschluss der Trainingsphase auch für bisher nicht trainierte Muster an Eingabedaten die erwarteten Ausgabedaten liefert. Das wird vor allem bei der Mustererkennung eingesetzt, kann aber problemlos zu komplexeren Regelwerken zusammengeschraubt werden.
Was hierbei entsteht, ist ein Set aus hochdimensionalen polynominalen Funktionen, die zwar deterministisch jeder Eingabe eine bestimmte Ausgabe zuordnen, insofern durchaus "perfekt" arbeiten, die aber aufgrund ihrer Komplexität sich jedem Verständnis der Programmierers entziehen. Stanislaw Lem hat sich über das Problem schon Anfang der 60er in seiner "summa technologiae" ausgelassen. Problematisch ist vor allem, dass der Programmierer nie sicher sein kann, dass der Optimierungsprozess während der Trainingsphase tatsächlich das absolute Optimum ermittelt hat, und nicht nur ein lokales Maximum.
3) Ganz neu und ganz gefährlich: Google hat kürzlich eine "Neue" KI vorgestellt, die, wenn ich das richtig verstanden habe, eine uralte Idee John von Neumanns mit modernen Resourcen aufgreift: Genetisch evoluierende Algorithmen. Natürlich spukt die Idee seit 60 Jahren durch die Hirne der Programmierer und worin genau der technische Durchbruch jetzt besteht, konnte ich noch nicht recherchieren.
Die Präsentation beschränkte sich beschwichtigend auf eine Anwendung, die einen Computerspieler simuliert: Das Programm "versteht" die Regeln eines unbekannten Computer-Spiels, ohne dass sie ihm erklärt oder einprogrammiert wurden, und schlägt nach kürzester Zeit jeden menschlichen Spieler.
Problematisch an dieser letzten Gattung ist zusätzlich, dass sich diese Strukturen theoretisch duplizieren können (was Computerviren ja schon seit geraumer Zeit tun), dabei jetzt neu unkontrollierbar (aber absturzsicher) mutieren, und obendrein im mittlerweile doch recht stattlichen Internetz auf einen Biotop treffen, der so groß ist, dass qualitativ neue makroskopische Effekte denkbar sind, die wirklich kein Mensch mehr durchschauen kann.
Eine Mischung aus 1),2) und 3) dürfte derzeit state of the art sein: Neuronale Netze, die auch nach Inbetriebnahme weiterlernen, basierend auf einem System, das sich nicht verrennen kann (ehem. Turings Halteproblem), ausgestattet mit einem gewissen spielerisch-zufälligen Element, das Neues selbstständig erforschen und strukturieren kann.
Handlungspraktisch gibt es also nichts mehr, was uns Menschen von diesen technischen Strukturen unterscheidet. Abgesehen von Sex.
Zwar machen wir uns Gedanken über den SINN des Ganzen.
Dieser Sinn besteht aber in der öffentlichen politischen Debatte - und da sind sich alle Fraktionen einig - darin, Geld und Ressourcen zu sparen und möglichst effizient zu arbeiten.
Wettbewerbsfähigkeit.
Früher nannte man das Rassismus.
Heute haben die Team-Mitglieder unterschiedliche Hautfarben, da fällt das politically nicht so auf, wenn sie andere mehrfarbige teams in die Arbeitslosigkeit oder den Hungertod wegbewerben.
Wer dieses Primat der Wettbewerbsfähigkeit (zwischen Arbeitsplatzbewerbern, Unternehmen, Staaten, Kulturen) in Frage stellt, gilt als naiv und diskreditiert sich für die weitere Debatte. Und vielleicht stimmt das ja sogar.
Gleichzeitig wissen wir, dass technische Geräte im Arbeitsprozess weitaus effizienter sind als Menschen.
Die Antwort auf die soziale Frage steht also im Grunde von vornherein fest.
Wozu noch viel quatschen?
Oder gar wählen?