this post was submitted on 23 Feb 2024
38 points (97.5% liked)
Deutschland
6710 readers
3 users here now
Sammelbecken für deutsche Kartoffeln und ihre Geschichten über Deutschland.
Nicht zu verwechseln mit !dach und !chad.
Regeln
- Seid nett zueinander.
- Schreibt hier Beiträge, die ganz Deutschland betreffen, nicht nur einen kleinen Teil
- Sinnlose Provokationen ohne Inhalt werden gelöscht
- zusätzlich: alle Regeln, die ihr auf Feddit.de in der Sidebar lesen könnt.
Bundesländer:
founded 3 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Den Quatsch von dem CDU Nachwuchs werde ich nicht kommentieren, aber dieser Absatz lässt Schreckliches ahnen. Nachdem Journalisten jahrelang Twitter zitieren dorften zündet nun die nächste Stufe im Qualitätsjournalismus: man befragt Bots und übernimmt das eins zu eins. Wieder 300 Zeichen und mehr die bezahlt werden ohne einen Finger zu krümmen.
Bitte liebe Redaktionsleiter, unterbindet das sofort!
Einerseits finde ich die Frage an ChatGPT in diesem Zusammenhang ganz passend. Andererseits liefert sie auch keinen wirklichen Mehrweg und schafft es, das Problem gekonnt zu umschiffen, dass ChatGPT das, was es schreibt, inhaltlich nicht versteht.
Ich finde das in dem Fall schon relevant. ChatGPT scheint das Hashtag mit Rechtextremismus und den Nazis in Verbindung zu bringen.
Damit ist die Ausrede von Müller unplausibel, sofern er nicht nachweisen kann, dass ihm das durch die prompts so geliefert wurde. Ich wüsste auch nicht, wie man ChatGPT dazu bringen soll, so etwas von sich aus vorzuschlagen, ohne es gezielt dahin zu manipulieren, weil der Nettigkeitsfilter inzwischen so stark ist.
ChatGPT versteht exakt 0,0 von der Bedeutung der Worte. Es weiß nur, mit welcher Wahrscheinlichkeit welche Abfolge von Worten als wünschenswerte Antwort auf die Prompt betrachtet werden kann.
Ohne diesen Typen, der entweder seine Wähler*innen verachtet, weil er sie mit KI-Blabla füttert oder rechtsextrem ist, in Schutz nehmen zu wollen, kann ChatGPT solche Losungen aufgrund fehlenden Kontexts oder schlechtem Trainingsmaterials generieren.
Als ChatGPT das geschrieben hat, hat es ja den Inhalt dessen nicht verstanden, sondern nur, dass dies die richtige Antwort auf den Prompt des taz Journalisten.
Beim Prompt des CDU Politikers kann ChatGPT das Wort #DeutschlandErwache immer noch für einen passenden Teil der Antwort gehalten haben.
ChatGPT muss die Worte ja nicht verstehen. Es muss sie nur mit Worten die vor Rechtsextremer Ideologie warnen in Verbindung bringen. Das hat es im Prompt von der Taz gemacht.
Nach den Fails mit Tay und auch am Anfang von ChatGPT wurde ziemlich stark nachgearbeitet, um möglichst nicht solche Ergebnisse unbeabsichtigt zu produzieren. Das ist in diesem Fall kein sicherer Ausschluss, aber es ist zumindest ziemlich unwahrscheinlich, dass er das einfach so von ChatGPT erzeugt bekommen hat. Er könnte zeigen, mit welchen Prompts ihm das Ergebnis ausgespuckt wurde und auf welcher Version er da unterwegs war.
Wie gesagt, ich will ihn nicht in Schutz nehmen, da ich ihn, nach dieser Aktion, so oder so für einen schlechten Politiker und ggf. Menschen halte, aber es liegt zumindest im Bereich des Möglichen, solange OpenAI nicht Filterlisten offenlegt.