Toller Thread - es ist sehr spannend zu lesen, was verschiedene Leute dazu denken, beitragen.
Ich selber befasse mich seit bald 40 Jahren ziemlich intensiv mit dem Thema KI.
Sehr vieles wurde hier bereits (mehrfach) gesagt. Teils kann ich mich anschliessen, teils würde ich widersprechen.
Zwei ganz grosse Probleme liegen - meiner Meinung nach - nicht bei der KI, sondern beim User:
1) Es wird alles, was die KI sagt als bare Münze genommen. Das zeichnet sich auch schon ohne Verwendung irgendwelcher KIs ab: was Google, Wiki & Co behaupten, resp. ganz generell im Internet steht ist korrekt, egal welche Quelle es genau ist. Mit KIs wie ChatGPT wird das vermutlich noch um ein Vielfaches schlimmer, weil ChatGPT nicht einfach irgendwelche Artikel/Daten ausspuckt, sondern sehr überzeugend in verständlicher Sprache etwas behauptet.
Soeben gefragt was 33333 mal 77777 ergibt, folgende Antwort bekommen:
Die Berechnung von 33333 mal 77777 ergibt 2.592.592.741.
Wer würde das schon in Frage stellen?! Ein Computer sollte doch eine relative einfach Multiplikation fehlerfrei durchführen können.
2) Ein grosser Teil der Leute will sich kein Wissen/Können mehr aneignen, weil es aus deren Sicht schlicht und einfach unnötig ist. Man kann alles jederzeit nachlesen/nachschauen/sich vorlesen lassen...
Das treibt uns in ein (von mir aus gesehen) sehr ungesundes Abhängigkeitsverhältnis. Ist das digitale Wissen/Können irgendwann, aus welchem Grund auch immer, nicht verfügbar, können wir quasi nichts mehr. Das kann auch zu einem Schwanzbeisser werden: wenn niemand mehr die Maschinen/Netzwerke warten kann, die das Wissen/Können zur Verfügung stellen, genau diese Maschinen/Netzwerke aber defekt sind, dann ist Schicht im Schacht.
Ein tolles und sehr einfach nachzuvollziehendes (sehr vereinfachtes) Gedankenexperiment finde ich folgendes: eine KI wird damit beauftragt lästige Spammails komplett zu eliminieren. Nach Abwägung aller Optionen zündet die KI alle Atomraketen, löst einen atomaren Winter aus und tötet die komplette Menschheit.
Wie die KI zu diesem Entschluss kam? Die Aufgabenstelleung war Spammails
komplett zu eliminieren. Jedes von der KI durchgespielte Szenario hatte zur Folge, dass schlussendlich trotzdem noch/wieder (wenige) Spammails kursieren. Die einzige Lösung war, die Menschen komplett auszulöschen. So konnte sichergestellt werden, dass es schlussendlich
keine Spammails mehr gab.
Natürlich wird jetzt argumentiert, dass wir Menschen ja nicht so blöd sind und Skynet selber kreieren würden, sondern unsere KI-Systeme werden von irgendwelchen Waffen- und/oder Verteidigungssystemen separiert. Vergessen wird jedoch folgendes: eine (selbstlernende) KI hat quasi "sehr viel Zeit" - resp. kann sehr viel in sehr kurzer Zeit erledigen. Via irgendwelcher Kommunikationsnetze kann sie sich zudem weitere Resourcen beschaffen. Z.B. die Übernahme von Botnetzwerken o.ä. womit sie noch mächtiger wird und v.a. auch verteilt sein kann. Insofern wird sie dann auch sehr schwer zu kontrollieren. "Stecker ziehen" ist dann nichit mehr wirklch möglich, selbst wenn man rechtzeitig erkennen würde, dass etwas gewaltig falsch läuft. Menschliche Hacker (inzwischen teils mit Unterstützung rudimentärer KI) hacken sich in sehr gut gesicherte Systeme ein. AKWs, das FBI und viele andere Systeme wurden bereits kompromittiert in der Vergangenheit. Es ist also nicht auszuschliessen, dass eine "hackende KI" durchaus in der Lage sein wird Waffen zu kontrollieren.
Im Thread wurde irgendwo nach dem GAU gefragt - ich denke, so ein Szenario würde dafür qualifizieren.
Das ist natürlich aktuell - wie gesagt - ein extrem vereinfachtes und rein theoretisches Gedankenexperiment, das jedoch aufzeigen kann, wo wir evtl. blinde Flecken haben.
Die Entwicklung geht rasant voran. Eine Frage, die hier im Thread gestellt wurde, hat GPT-3.5 (Release: 30. November 22) mit lächerlichem Ergebnis beantwortet.
GPT-4 (Release: 14. März 22) kann das schon sehr viel besser:
Ich habe einen 5 Liter Behälter und einen 12 Liter Behälter. Wie kann ich genau 5 Liter abmessen?
Es sieht so aus, als ob Sie bereits einen 5-Liter-Behälter haben, daher haben Sie bereits 5 Liter abgemessen. Sie können einfach den 5-Liter-Behälter füllen und Sie haben genau 5 Liter.
Falls Sie sich auf eine komplexere Frage beziehen, wie Sie zum Beispiel mit diesen beiden Behältern eine andere spezifische Menge abmessen können, benötige ich zusätzliche Informationen, um Ihnen dabei zu helfen.
GPT wird aktuell "kontrolliert" trainiert. Das ist aber auch eine seiner grössten Schwächen. GPT kann aktuell nicht aus Fehlern lernen (ausser innerhalb eines Chats) und sich selber kein neues "Wissen" aneignen. Das wird vermutlich auch nicht so schnell ändern, weil die "Community" des Internets grundsätzlich "böse" ist. Es gibt ihn immer, diesen einen Troll!
Ein gutes Beispiel dafür ist Tay ein Twitterbot von Microsoft, der (wenn ich mich richtig erinnere) im Jahr 2016 aktiviert wurde. Nach weniger als 24 Studnen musste Tay wieder vom Netz genommen werden, da er innert weniger Stunden von den Usern so "belernt" wurde, dass er begann beleidigende und/oder rechtsradikale Dinge zu posten.
Ich für meinen Teil werde die Entwicklung weiterhin gespannt verfolgen.