Mehr brandheiße Inhalte
zur Gruppe
Web-Cam-Chat Paare
553 Mitglieder
Das Thema ist für dich interessant? Jetzt JOYclub entdecken

KI/Chat GPT- Fluch oder Segen?

Nuja, der Fortschritt heisst Fortschritt, weil er fortschreitet. Ob er immer in die richtige Richtung schreitet, sei dahingestellt...

Ich erinnere mich noch an die alte Werkstatt eines Wagners und Kuefners bei uns auf dem Dorf vor knapp 50 Jahren. Also noch nicht sooo lange her. Er fertigte dort aus Holz und Stahlbaendern Speichenraeder fuer Fuhrwerke und stellte Faesser fuer die lokalen Brauereien her. Mit dem Aufkommen von Luftreifen und Stahl- Kunststoffaessern war sein Gewerbe tot.
Er war allerdings flexible und hat dann einen florierenden Reifenservice aufgemacht.

Auch die Gebrueder Wright haben sich zunaechst dem Buchdruck gewidmet, dann dem Fahrradbau und schlussendlich dann das Flugzeug und den Windkanal entwickelt und gebaut.

Wir sehen : Mit gewissen Skills ist der Wandel problemlos zu meistern. Ich sehe bei mir in der Werkstatt zunehmend mehr Elektromechanik. Und zunehmend auch komplexe , defekte Robotik. Selbst mein Schlosser lebt inzwischen vom Schweissen der Gehaeuse fuer Industrieroboter nicht schlecht. Bis Roboter Roboter reparieren, wird noch ein wenig Wasser die Saale hinunterfliessen. Hoffe ich.
********grau Mann
75 Beiträge
> Bis Roboter Roboter reparieren, wird noch ein wenig Wasser die Saale hinunterfliessen. Hoffe ich.

Vielleicht 5 Jahre oder so.
Die ersten Carbonrahmen fuer Fahrraeder wurden Anfang der Achziger zu Rennzwecken gebaut. Bis die Technik massentauglich war UND bezahlbar, vergingen fast 40 Jahre.

In der Chirurgie experimentieren wir ebensolang mit Robots. Heute sind wir auf dem Stand, die Arme ferngesteuert praezise zu bewegen. Mehr aber auch nicht. Es fehlt eine Sensorik bzw. ein Modul aus intraoperativer Bildgebung mit Schnittstelle zur operativen Mechanik. Das ist hoch komplex, vieles davon machen Chirurgen heute immer noch intuitiv / evidenzbasiert.

Ohne Zweifel ist der Weg zu einer komplett robotischen OP vorgezeichnet und vermutlich auch machbar. Das wird ohne KI auch nicht gehen. Die Herausforderung besteht in der Erkennung und korrekten Beurteilung von Normvarianten. Und da versagen die Systeme aktuell noch komplett. We will see....
******nch Mann
125 Beiträge
Irgendwie dreht es sich ganz schön im Kreis *abgedreht*

Immer wieder wird gemahnt, der Untergang (der Menschheit – nicht der KI) beschworen
Andere sehen es entspannter, können sich angenehme und positive Effekte vorstellen

Zitat @*******970 „Also KI ist nicht nur auf das selbstfahrende Auto beschränkt. Die Deutsche Bahn erprobt bereits mit der Bahnindustrie fahrerlose Züge. In Japan fahren solche bereits“

Experimente mit Fahrerlosen Zügen gab es in Berlin schon in den 70er Jahren, damals natürlich noch ohne KI, vielleich sogar auch ohne I

in den 80er Jahren gab es dann die Fahrerlose M-Bahn in Berlin,
die fuhr vom Gleisdreieck bis zum Kemperplatz (Nahe Potsdamer Platz)

Eine kurze Doku auf Youtube dazu


kann ich ohne Wertung uneingeschränkt zur Unterhaltung empfehlen
zu sehen unter anderem

- Ein putziger, menschenleerer Zug, der auf einer Strecke von ca. 600 m hin- und herpendelt, der
sich scheinbar selbst genug ist und auf Menschen vollständig verzichten kann.
- Tausende von Technologiegläubigen Fahrgästen, die ohne Angst mitfahren
- der tragische Unfall, bei dem der Wagon am Kemperplatz die Bahnhofsmauer durchbrach und dann
zur Hälfte in 10 m Höhe in der Luft schwebte (Die Ursache war mangelnde Intelligenz auf
menschlicher, nicht auf künstlicher Seite)
- Ein Brandanschlag, von Technologiefeinden oder –skeptikern verübt
- Das unvermeindliche / erlösende / tragische / . . . Ende (möge JedeR das treffende Adjektiv selbst
auswählen)
- Das Ende war übrigens nicht der Sieg von Technikfeinden oder das Scheitern der Technikfreaks,
sondern eine Folge des Mauerfalls und der Berliner Wiedervereinigung. Die früher auf der Strecke
verkehrende U2 wurde wiederbelebt und die M-Bahn damit überflüssig

Zu dem ganzen Für und Wider fällt mir jetzt auch nichts sinnvolles mehr ein,
außer vielleicht

Erstens kommt es anders, und zweitens als man denkt (Wilhelm Busch)

und

Die Schaffner sterb'n aus, überoi
Der Mensch wird ersetzt, durch a' Kast'l aus Metoi
Wenn ma do' an' Foahrschein eine steckt
Sogt kana "Danke" oder "Bitte vorgehn"
Die sogn überhaupt nix
Die riahrn si ned amoi
Wenn die Leit auf der hinteren Plattfoarm stengen
Nai nai
Schaffner sei'
Des woar amoi wos
So wird's nie wieda
Des is des Schaffnalos
(Wolfgang Ambros / Josef Prokopetz)

Was will ich jetzt eigentlich damit sagen, das weiß ich auch nicht so genau, außer

Das Leben (dieser Thread) ist ein Karussell

Vielleicht aber auch eine Schaukel.
es geht vorwärts und rückwärts, aber niemals voran
es geht hoch und wieder runter, am Ende steigen wir auf der gleichen Höhe wieder aus, wo wir auch eingestiegen sind.

und

„Hurra wir leben noch“ (Milva)

(ich hoffe der Link geht als Querverweis auf den Pride-Month durch *zwinker*)
Natürlich wissen wir nicht, wohin uns der Weg führt. Es ist aber ein Unterschied, ob ich mit meinem uralten Auto ohne Navi in einer unbekannten Stadt aus Versehen in eine Sackgasse gerate (und umdrehe) oder ob ich mich mit einem nagelneuen eBike, dessen Bremsen noch nicht erfunden sind, einen mir unbekannten steilen Anden-Trail herunterstürze ....
*******970 Mann
475 Beiträge
Zitat von ******nch:
Was will ich jetzt eigentlich damit sagen, das weiß ich auch nicht so genau

Wenn Du selbst schon nicht weißt, was Du zum Ausdruck bringen möchtest *aua*

Zitat von ******nch:
es geht vorwärts und rückwärts, aber niemals voran

Ich kann mir nicht vorstellen, dass die Diskussion hier zu einem gemeinsamen Ergebnis führen soll oder wir uns einfach über ein interessantes Thema austauschen und jeder, der meint, einen mehr oder minder bedeutenden Beitrag dazu leistet zu wollen, dies einfach macht.

Meine persönliche Anmerkung dazu: Der Weg ist das Ziel!
Die aktuelle Diskussion in den Medien ist ebensowenig zielfuehrend. Es irritiert, dass fuehrende Entwickler von KI nun davor warnen.
Warum lassen sie es dann nicht einfach ?

Fakt ist, dass ueberall, wo das grosse Geld gemacht wird, also im Bankgewerbe, im Internetmarketing, in der Medizintechnik etc.
KI schon laenger ein Thema ist und auch gar nicht mehr wegzudenken.

Und die Probleme, die die Welt aktuell hat, sind garantiert nicht durch KI entstanden, sondern durch schnoeden Merkantilismus. War ja so schoen einfach, ein Loch in den Boden zu bohren und dann das schwarze Gold zu verbrennen.

Mal sehen, wenn wie es schaffen, KI sinnig einzusetzen, kriegen wir vielleicht ein paar dieser eminenten Probleme besser geloest ?
****mi Frau
3.128 Beiträge
Themenersteller JOY-Angels 
Mal sehen, wenn wie es schaffen, KI sinnig einzusetzen, kriegen wir vielleicht ein paar dieser eminenten Probleme besser geloest ?

Naja… sollte die KI eines Tages wirklich schlauer sein als wir, hat sie vielleicht dann für uns eine Lösung parat die alle mittragen wollen und auch können… es muss ja nicht Zwangsläufig bedeuten das sie uns gleich umbringen will, auch wenn sie feststellt, dass wir das Problem überhaupt erst verursacht haben…
In dem kurzen, aber sehr dichten SciFi- Roman " Der Elfenbeinturm " des Autors Heribert Franke wird recht anschaulich und mit allen Konse- quenzen beschrieben, wie Machthaber eine Weltregierung auf dem Mond installieren, die im Wesentlichen aus einer komplexen KI besteht.

Die Geschichte ist aus heutiger Sicht durchaus realisierbar, da bis zur Besiedelung des Mondes sicherlich auch starke und komplexe deep KI zur Verfuegung steht.

Wohlgemerkt: Alles in den Haenden einer vermoegenden Machtelite. Das halte ich fuer das realistischere Szenario.
****oN Mann
9 Beiträge
Toller Thread - es ist sehr spannend zu lesen, was verschiedene Leute dazu denken, beitragen.

Ich selber befasse mich seit bald 40 Jahren ziemlich intensiv mit dem Thema KI.

Sehr vieles wurde hier bereits (mehrfach) gesagt. Teils kann ich mich anschliessen, teils würde ich widersprechen.

Zwei ganz grosse Probleme liegen - meiner Meinung nach - nicht bei der KI, sondern beim User:
1) Es wird alles, was die KI sagt als bare Münze genommen. Das zeichnet sich auch schon ohne Verwendung irgendwelcher KIs ab: was Google, Wiki & Co behaupten, resp. ganz generell im Internet steht ist korrekt, egal welche Quelle es genau ist. Mit KIs wie ChatGPT wird das vermutlich noch um ein Vielfaches schlimmer, weil ChatGPT nicht einfach irgendwelche Artikel/Daten ausspuckt, sondern sehr überzeugend in verständlicher Sprache etwas behauptet.
Soeben gefragt was 33333 mal 77777 ergibt, folgende Antwort bekommen:
Die Berechnung von 33333 mal 77777 ergibt 2.592.592.741.
Wer würde das schon in Frage stellen?! Ein Computer sollte doch eine relative einfach Multiplikation fehlerfrei durchführen können.
2) Ein grosser Teil der Leute will sich kein Wissen/Können mehr aneignen, weil es aus deren Sicht schlicht und einfach unnötig ist. Man kann alles jederzeit nachlesen/nachschauen/sich vorlesen lassen...
Das treibt uns in ein (von mir aus gesehen) sehr ungesundes Abhängigkeitsverhältnis. Ist das digitale Wissen/Können irgendwann, aus welchem Grund auch immer, nicht verfügbar, können wir quasi nichts mehr. Das kann auch zu einem Schwanzbeisser werden: wenn niemand mehr die Maschinen/Netzwerke warten kann, die das Wissen/Können zur Verfügung stellen, genau diese Maschinen/Netzwerke aber defekt sind, dann ist Schicht im Schacht.

Ein tolles und sehr einfach nachzuvollziehendes (sehr vereinfachtes) Gedankenexperiment finde ich folgendes: eine KI wird damit beauftragt lästige Spammails komplett zu eliminieren. Nach Abwägung aller Optionen zündet die KI alle Atomraketen, löst einen atomaren Winter aus und tötet die komplette Menschheit.

Wie die KI zu diesem Entschluss kam? Die Aufgabenstelleung war Spammails komplett zu eliminieren. Jedes von der KI durchgespielte Szenario hatte zur Folge, dass schlussendlich trotzdem noch/wieder (wenige) Spammails kursieren. Die einzige Lösung war, die Menschen komplett auszulöschen. So konnte sichergestellt werden, dass es schlussendlich keine Spammails mehr gab.

Natürlich wird jetzt argumentiert, dass wir Menschen ja nicht so blöd sind und Skynet selber kreieren würden, sondern unsere KI-Systeme werden von irgendwelchen Waffen- und/oder Verteidigungssystemen separiert. Vergessen wird jedoch folgendes: eine (selbstlernende) KI hat quasi "sehr viel Zeit" - resp. kann sehr viel in sehr kurzer Zeit erledigen. Via irgendwelcher Kommunikationsnetze kann sie sich zudem weitere Resourcen beschaffen. Z.B. die Übernahme von Botnetzwerken o.ä. womit sie noch mächtiger wird und v.a. auch verteilt sein kann. Insofern wird sie dann auch sehr schwer zu kontrollieren. "Stecker ziehen" ist dann nichit mehr wirklch möglich, selbst wenn man rechtzeitig erkennen würde, dass etwas gewaltig falsch läuft. Menschliche Hacker (inzwischen teils mit Unterstützung rudimentärer KI) hacken sich in sehr gut gesicherte Systeme ein. AKWs, das FBI und viele andere Systeme wurden bereits kompromittiert in der Vergangenheit. Es ist also nicht auszuschliessen, dass eine "hackende KI" durchaus in der Lage sein wird Waffen zu kontrollieren.

Im Thread wurde irgendwo nach dem GAU gefragt - ich denke, so ein Szenario würde dafür qualifizieren. *zwinker*

Das ist natürlich aktuell - wie gesagt - ein extrem vereinfachtes und rein theoretisches Gedankenexperiment, das jedoch aufzeigen kann, wo wir evtl. blinde Flecken haben.

Die Entwicklung geht rasant voran. Eine Frage, die hier im Thread gestellt wurde, hat GPT-3.5 (Release: 30. November 22) mit lächerlichem Ergebnis beantwortet.
GPT-4 (Release: 14. März 22) kann das schon sehr viel besser:

Ich habe einen 5 Liter Behälter und einen 12 Liter Behälter. Wie kann ich genau 5 Liter abmessen?

Es sieht so aus, als ob Sie bereits einen 5-Liter-Behälter haben, daher haben Sie bereits 5 Liter abgemessen. Sie können einfach den 5-Liter-Behälter füllen und Sie haben genau 5 Liter.

Falls Sie sich auf eine komplexere Frage beziehen, wie Sie zum Beispiel mit diesen beiden Behältern eine andere spezifische Menge abmessen können, benötige ich zusätzliche Informationen, um Ihnen dabei zu helfen.

GPT wird aktuell "kontrolliert" trainiert. Das ist aber auch eine seiner grössten Schwächen. GPT kann aktuell nicht aus Fehlern lernen (ausser innerhalb eines Chats) und sich selber kein neues "Wissen" aneignen. Das wird vermutlich auch nicht so schnell ändern, weil die "Community" des Internets grundsätzlich "böse" ist. Es gibt ihn immer, diesen einen Troll! *zwinker*
Ein gutes Beispiel dafür ist Tay ein Twitterbot von Microsoft, der (wenn ich mich richtig erinnere) im Jahr 2016 aktiviert wurde. Nach weniger als 24 Studnen musste Tay wieder vom Netz genommen werden, da er innert weniger Stunden von den Usern so "belernt" wurde, dass er begann beleidigende und/oder rechtsradikale Dinge zu posten.

Ich für meinen Teil werde die Entwicklung weiterhin gespannt verfolgen.
******nch Mann
125 Beiträge
"Soeben gefragt was 33333 mal 77777 ergibt, folgende Antwort bekommen:
Die Berechnung von 33333 mal 77777 ergibt 2.592.592.741
Wer würde das schon in Frage stellen?! Ein Computer sollte doch eine relative einfach Multiplikation fehlerfrei durchführen können."

Ich hab's mal eben nachgerechnet, mit meinem Taschenrechner und mit Stift und Zettel, komme dabei, übereinstimmend auf ein anderes Ergebnis.
*******970 Mann
475 Beiträge
Zitat von ****oN:
Ich habe einen 5 Liter Behälter und einen 12 Liter Behälter. Wie kann ich genau 5 Liter abmessen?

Es sieht so aus, als ob Sie bereits einen 5-Liter-Behälter haben, daher haben Sie bereits 5 Liter abgemessen. Sie können einfach den 5-Liter-Behälter füllen und Sie haben genau 5 Liter.

Das wäre eine sehr simple Aufgabe für eine Maschine. Allerdings müsste beim automatischen Befüllen des Behälters, egal welches Fassungsvermögen, lediglich anhand des Volumenstroms die 5 Liter befüllen. Das geht allerdings auch mit einem Sensor (Füllstandsmesser). Das ist alles noch keine KI sondern einfachste Steuerungstechnik. KI würde bedeuten, die Maschine lernt selbständig unterschiedliche Behälter und unterschiedlichste Flüssigkeiten, mit verschiedenen Volumenströmen zu erkennen um ebenfalls unterschiedliche Füllstände zu erzeugen, je nach Anforderung des Nutzers.
Wiederum liegt der Unterschied zwischen einfacher Steuerungstechnik und Künstlicher Intelligenz in der Komplexität. Nicht nur ein, sondern viele mögliche Inputs und mehr als ein möglicher Output.
****Dr Mann
1.531 Beiträge
Och, @*******970, in der Antwort hat das System ja gesagt, dass es sich um ein klassisches Umfüllrätsel handelt, also die Frage, wie man 5 Liter in einen 5-Liter-Behälter bekommt, nicht im Fokus steht. Und dann wird die Aufgabe trivial.
Und die "Lösung" zu einer augenfälligen Demonstration des Umstandes, dass das System nicht (in irgendeinem brauchbaren Sinne) "weiß", wovon sie schreibt.
Die Welt ist in stetem Wandel begriffen. Wohin die Sache laeuft, weiss (gluecklicherweise) keiner so genau.
Soviel zu Prophezeihungen....
****Dr Mann
1.531 Beiträge
Hier noch ein sehr informativer Beitrag: Eigentlich sehr technisch und darauf orientiert, wie sich Halluzinationen bei LLMs reduzieren lassen, beschreibt er anfangs, warum LLMs strukturell immer halluzinieren. Und dass man es als Feature sehen muss: https://newsletter.victordibia.com/p/practical-steps-to-reduce-hallucination
Ein interessantes Problem bei einem System, das als Basis fuer sein Tun unkontrolliert auf rein statistischer Basis Wissen / Texte aus dem www. nimmt ist das, was man bei Mikroorganismen Mutation nennt, beim trivialen Kopieren einen Verlust an Schaerfe / Aufloesung.

Kurz : Beim schnellen Generieren neuer Informations- und Zeichenketten schleichen sich stets Fehlerchen ein. Beim naechsten Replikationsvorgang neue. Und irgendwann hat man dann ein Konstrukt, das unsinnig und unscharf ist.

Deshalb laufen sich alle Pandemien irgendwann tot. Weil die Viren / Bakterien vor lauter Fehlern nicht mehr virulent sind.

In punkto KI / AI heisst das dann : Es tauchen im Netz immer mehr fehlerhafte KI- generierte Texte auf. Auf die sich die KI dann aktuell bezieht. Und damit dann nach ein paar Durchlaeufen nur noch Duennsinn produziert.

Im Klartext: Die groesste Gefahr fuer die KI ist die KI selbst. Und: Ohne Kontrolle und Zerrifizierung geht dauerhaft gar nichts.
********grau Mann
75 Beiträge
Nichts für ungut, aber was @****ksy hier erzählt, ist leider nur ein Haufen Halbwissen und dummes Geschwätz.

als Basis fuer sein Tun [nimmt das System] unkontrolliert auf rein statistischer Basis Wissen / Texte aus dem www

Das ist inkorrekt; das fertige System eines Texttransformers nach dem Training greift weder auf Wissen/Text aus dem Internet (oder auf eine Kopie davon) zu, noch geschieht dies während des Trainings "unkontrolliert". Der Datensatz, mit dem diese KIs trainiert werden, ist zum Beispiel in der Regel bereinigt, um die Qualität des Trainings zu erhöhen.

Beim schnellen Generieren neuer Informations- und Zeichenketten schleichen sich stets Fehlerchen ein. Beim naechsten Replikationsvorgang neue. Und irgendwann hat man dann ein Konstrukt, das unsinnig und unscharf ist.

Tja dieses Prinzip der Degradierung von wiederholten Kopien ist in der Technik nicht unbekannt, aber leider fertigt GPT keine Kopien von Kopien an (oder tut etwas vergleichbares). Ergo: Unsinn!

Deshalb laufen sich alle Pandemien irgendwann tot. Weil die Viren / Bakterien vor lauter Fehlern nicht mehr virulent sind.

Zwar hat diese Aussage nicht direkt etwas mit der KI zu tun, aber trotzdem ist sie leider kompletter Bullshit, den er sich vermutlich (auf Grundlage halb vergessenen Biologiewissens) selbst zusammenfantasiert hat. Viren und Bakterien unterliegen z.B. auch während einer Pandemie einem Selektionsdruck, der schlechte Mutationen aussortiert, gute Mutationen begünstigt und dadurch zum Beispiel den Erreger neue Resistenzen gegen Medikamente ausbilden lässt. Dass eine Pandemie trotzdem irgendwann vorbei ist, und Erreger in deren Verlauf auch oft harmloser (nicht weniger ansteckend/virulent!) werden, hat andere Gründe.

... Und damit dann nach ein paar Durchlaeufen nur noch Duennsinn produziert.

Im Klartext: Die groesste Gefahr fuer die KI ist die KI selbst. Und: Ohne Kontrolle und Zerrifizierung geht dauerhaft gar nichts.

Nein, nein, nein!

Ich bin mir ziemlich sicher, dass er (nochmal: nichts für ungut) die Technologie nicht gut genug versteht um zum Beispiel über deren aktuellen Grenzen oder auch ihren weiteren Entwicklungsmöglichkeiten sinnvolle Mutmaßungen anzustellen. Das ist ja nichts verwerfliches - allerdings wäre es schön, wenn er sich dessen bewusst wäre und etwas zurücknehmen würde, statt hier selbstbewusst und bei einem so ernsten Thema so einen Unsinn zu schwatzen.
Immer sachlich bleiben - die Diskussion ist schon aufgeregt genug. Fuer persoenliche Beleidigungen gibt es immer noch die CM und den Staatsanwalt...

Also: Z.B. Molnirupavir ist ein antivirales Medikament, das sich genau diesen Mechanismus des "fatal error storm"
zu Nutzen macht. Es sorgt fuer den Einbau falscher Informationen in das Genom des Virus und setzt damit dessen Virulenz / Lebensfaehigkeit durch die daraus folgende Synthese dysfunctional Proteine drastisch herab.

Eine aehnliche Funktion kann man dann analog Trolltexten und fantasierender KI zuschreiben, wenn diese nicht als solche gekennzeichnet ist.

Meine Kollegin gleicht zum Beispiel mangelnde Sprachkompetenz in Arztbriefen dadurch aus, dass sie ihre Entwuerfe chatGPT fuettert, das daraus sehr fluessige, aber nicht unbedingt immer sinnige Texte generiert. Dies fuehrt im Zweifelsfall zu gravierenden Fehlern, die unkorrigiert zu drastischen Missverstaendnissen und Behandlungs- / Strategiefehlern fuehren koennen.
********grau Mann
75 Beiträge
@****ksy meine Kritik ist fast ausschließlich inhaltlicher Natur - wenn du das persönlich nimmst, dann ist das wohl kaum mein Problem. Mir auf dieser Grundlage mit dem Anwalt zu drohen, ist absolut lächerlich *ggg*

Wir brauchen diesen Kram hier jetzt auch nicht weiter diskutieren. Ich würde gerne auf deinen weiteren Input verzichten.

Wenn Dritte Fragen zu meiner Kritik oder meinen Positionen haben, dürfen sie die gerne stellen und ich werde es erläutern.
****Dr Mann
1.531 Beiträge
Ich muss @********grau leider größtenteils recht geben:
Die Vorstellung, dass sich Pandemien totlaufen, weil die Erreger gewissermaßen genetisch entarten, ist grotesk falsch. Und der Umstand, dass es Medikamente wie Molnirupavir gibt, belegt hier überhaupt nichts. Die gewünschte Wirkung von Molnirupavir ist immer nur auf den individuellen Patienten bezogen, irgendein epidemiologischer Effekt - also dass die mutationstragenden Viren die Pandemiedynamik abschwächen - ist nie diskutiert worden und auch nicht zu erwarten.

Die Vorstellung, dass LLMs wie ChatGPT "unkontrolliert" gefüttert werden, ist ebenso falsch.

Meine Kollegin gleicht zum Beispiel mangelnde Sprachkompetenz in Arztbriefen dadurch aus, dass sie ihre Entwuerfe chatGPT fuettert, das daraus sehr fluessige, aber nicht unbedingt immer sinnige Texte generiert. Dies fuehrt im Zweifelsfall zu gravierenden Fehlern, die unkorrigiert zu drastischen Missverstaendnissen und Behandlungs- / Strategiefehlern fuehren koennen.

Genau das ist mit "Halluzinationen" (oder "Konfabulationen") gemeint. Das ist eine wesentliche Gefahr. Immerhin ein richtiger Punkt, wenn auch in diesem Thread kein neuer.
****mi Frau
3.128 Beiträge
Themenersteller JOY-Angels 
Von dem was @****ksy schreibt, habe ich aber auch schon gehört, da gab es ein kurzes Interview mit einem der in der IT unterrichtet, und auf die Frage ob Chat GPT bei Hausarbeiten verboten werden sollte, meinte er, er würde es ausdrücklich nicht verbieten wollen, aber eben als Hilfsmittel um schneller voran zu kommen.
Das die Studenten den Inhalt unbedingt prüfen müssen weil Chat GPT gerne auch statistische Prognosen nimmt die ähnlich gelagert sind, aber in dem speziellen Zusammenhang dann keinen Sinn mehr machen, das zu unterscheiden, da liegt die Herausforderung….
****Dr Mann
1.531 Beiträge
Genau @****mi, wie ich bereits geschrieben habe: Diese Halluzinationen sind nicht etwa eine Kinderkrankheit dieser Systeme, sondern - um im Bild zu bleiben - ein angeborenes Problem. Das, worin ihre überraschende Leistungsfähigkeit liegt, ist eben auch ihr größtes Manko: Dass sie, grob gesagt, interpolieren, Lücken füllen auf Basis von (Text-) Wahrscheinlichkeiten. Aber sie haben eben kein Verständnis von dem, was sie schreiben.
Und hinsichtlich der Prognose einer zunehmenden Verschlechterung der Systemleistung dadurch, dass sie ihre eigenen Texte wieder als Input bekommen, ist folgendes zu sagen: Man muss trennen zwischen 1. "inhaltlicher Korrektheit" und 2. "sprachlicher Korrektheit". Wenn sich für 2. Fehler quasi als "Mutation" einschleichen würden, dann würde das für das beschriebene Szenario sprechen, aber auch nur, wenn jegliche Kontrolle oder Filterung unterbliebe.
Aber darum geht es ja bei den "Halluzinationen" nicht, sondern eben um falsche, nichtzutreffende oder nicht herleitbare Inhalte (also 1.). Und hier ist ja - zumindest wenn man versteht, wie diese Systeme arbeiten, überhaupt nicht klar, warum das zu einer zunehmenden Verschlechterung führen sollte.
********grau Mann
75 Beiträge
Zitat von ****Dr:
Diese Halluzinationen sind nicht etwa eine Kinderkrankheit dieser Systeme, sondern - um im Bild zu bleiben - ein angeborenes Problem.

Im Grunde hast du damit Recht, dass es sich bei diesem Problem nicht um einen leicht korrigierbaren Fehler, sondern um eine Folge grundlegender Designprinzipien handelt. Ich wäre allerdings mit Urteilen darüber, inwieweit sich diese Effekte durch technologische Tricks reduzieren lassen, eher vorsichtig.
Ich vermute sogar, dass bei Texttransformers steigender Komplexität irgendwann latentes ungefähres Wissen darüber vorhanden sein wird, ob das, was sie erzählen, der Wirklichkeit entspricht. Außerdem gibt es vermutlich Methoden, die Halluzinationen durch gezieltest Training deutlich zu reduzieren.

Zitat von ****Dr:
Aber sie haben eben kein Verständnis von dem, was sie schreiben.

Da bin ich tatsächlich anderer Meinung! Die Transformer erlernen aus diesen Unmengen an Internettext eine Art abstrakte, mathematische Beschreibung der Realität, die zumindest in praktischer Hinsicht mit einem menschlichen Verständnis gleichzusetzen ist. Ich denke wir haben keinen Grund, davon auszugehen, dass diesem aus Mustern rekonstruierten Weltmodell bestimmte praktische Grenzen gesetzt sind, die für z.B. menschliche Intelligenz nicht gelten.
Die genaue, vollständige Erklärung dafür, warum ich (und viele andere) das denken, ist allerdings etwas komplizierter fürchte ich.
****Dr Mann
1.531 Beiträge
Zitat von ********grau:
Ich wäre allerdings mit Urteilen darüber, inwieweit sich diese Effekte durch technologische Tricks reduzieren lassen, eher vorsichtig.

Fair enough. Voraussagen sind ja immer besonders schwierig, wenn sie sich auf die Zukunft beziehen.

Zitat von ********grau:
Außerdem gibt es vermutlich Methoden, die Halluzinationen durch gezieltest Training deutlich zu reduzieren.
Natürlich, daran wird gearbeitet. Einen Artikel dazu habe ich oben verlinkt. Nur eben, und dieser Punkt wird im Artikel auch klar, ist die "Abbildung" von Fakten in ein neuronales Netz immer eine Informationsreduktion und somit fehlerbehaftet. Erkenntnistheoretisch gesprochen: Die Systeme arbeiten immer induktiv, und Induktion ist, wie wir alle leidvoll erfahre haben, kein 100%iges Schlussverfahren.


Zitat von ********grau:
Die Transformer erlernen aus diesen Unmengen an Internettext eine Art abstrakte, mathematische Beschreibung der Realität, die zumindest in praktischer Hinsicht mit einem menschlichen Verständnis gleichzusetzen ist. Ich denke wir haben keinen Grund, davon auszugehen, dass diesem aus Mustern rekonstruierten Weltmodell bestimmte praktische Grenzen gesetzt sind, die für z.B. menschliche Intelligenz nicht gelten.
Hier wird es jetzt spannend, denn - erwartbar - I beg to differ. Es mag wie bloße Semantik scheinen, aber ist elementar, dass die Systeme nicht "eine Art abstrakte, mathematische Beschreibung der Realität" inkorporieren, sondern "eine Art abstrakte, mathematische Beschreibung der von sprachlichen Realisationen (die sich in der Regel auf die Realität beziehen)". Realität wird also höchstens mittelbar modelliert und nur insoweit, als sie sich sprachlich beschrieben oder gezeigt finden läßt.
Mein obiges Beispiel mit dem Umfüllrätsel zeigt das sehr deutlich: Das LLM baut Sätze zusammen, die so eben in Lösungen der Umfüllrätsel vorkommen. Ein Modell von "Krug" oder "Fassungsvermögen", von "geplantem Handeln" oder einer Reihe von aufeinander aufbauenden und schließlich zum Ziel führenden Schritten kommt nicht zum Zuge.

Ich wäre schon an deiner komplizierten Erklärung interessiert. Dafür sind wir ja hier, oder?
********grau Mann
75 Beiträge
Zitat von ****Dr:
Nur eben, und dieser Punkt wird im Artikel auch klar, ist die "Abbildung" von Fakten in ein neuronales Netz immer eine Informationsreduktion und somit fehlerbehaftet.

Natürlich, aber für das menschliche Gehirn gilt das doch mit Sicherheit auch. Wir können also aus dieser Tatsache allein meiner Meinung nach keine konkrete Begrenzung der theoretisch möglichen Fähigkeiten der KI auf menschliches Level (oder darunter) schlussfolgern. Modelle von der Realität sind prinzipiell nie verlustfrei!

Zitat von ****Dr:
Ich wäre schon an deiner komplizierten Erklärung interessiert.

Uff. Ich weiß nicht, ob ich das in dem Rahmen hier und ohne eine philosophisch-wissenschaftliche Arbeit zu schreiben gut erklären kann. Ich versuche es: Es scheint im Universum eine Art Naturgesetz zu geben, nachdem sich Muster, die lokal und in einem bestimmten Kontext gelten, oft über diesen Kontext hinaus verallgemeinern lassen. Die Induktion, die du korrekt als fehleranfällig beschreibst, wäre ohne dieses "Gesetz" für die Modellierung der Realität komplett nutzlos. Für Modelle im Allgemeinen und für "allgemeine Intelligenz" gilt vermutlich im Prinzip das gleiche.
Nur weil das Universum so funktioniert, dass induktive Schlüsse öfter zu einer korrekteren Beschreibung der Realität führen, als zufällige Schlüsse, ist es möglich, dass die Menschen durch Beobachtungen auf der Erde ein (physikalisch-wissenschaftliches) Modell der Realität entwickeln und dann zum Beispiel eine Rakete bauen, die Menschen zum Mond schießt, dort eine Zeit lang überleben lässt und wieder zurück bringt - und das ohne 1000 Versuche, die vorher schief gegangen sind.
Damit eng verbunden ist die Beobachtung, dass Intelligenz sich im Grunde als die Fähigkeit, Muster zu erkennen und daraus sinnvolle Modelle von der Realität anzufertigen, sinnvoll definieren oder beschreiben lässt.
Um wieder den Bogen zurückzuschlagen: Das Internet ist ein sehr komplexer Abdruck von der Realität, aus dem sich - durch korrekte Induktion - ein sehr großer Teil derselben recht akkurat durch "rumprobieren" (im Grunde das, was der Trainingsprozess macht) rekonstruieren lässt. Meine Vermutung ist, dass diese Rekonstruktion im Grunde fast gleich mächtig sein muss, wie der direkte Zugriff auf die "Basisrealität" außerhalb des Internets.
Falls es dich interessiert, können wir auch gerne noch darüber sprechen, warum ich das denke.
Anmelden und mitreden
Du willst mitdiskutieren?
Werde kostenlos Mitglied, um mit anderen über heiße Themen zu diskutieren oder deine eigene Frage zu stellen.