Die Rolle der KI bei der Erzeugung von Inhalten in Farmen
Eine Untersuchung von NewsGuard hat den Einsatz von künstlicher Intelligenz (KI) bei der Erstellung von Content-Farmen aufgedeckt, die nicht nur wenig nützlich sind, sondern auch den Zugang zu echtem und wichtigem Material einschränken.
Content-Farmen stellen eine große Anzahl von Autoren ein, die höchstwahrscheinlich unterbezahlt sind, und richten eine Reihe von ähnlich aussehenden Websites ein, die mit Werbeanzeigen versehen sind. Diese Websites werden dann mit Artikeln bestückt, die speziell darauf ausgelegt sind, in den Suchergebnissen ganz oben zu landen und so viel Geld mit Anzeigenklicks zu verdienen.
Laut der Analyse von NewsGuard gibt es 49 Nachrichten- und Informationswebsites, die "fast vollständig von Software mit künstlicher Intelligenz geschrieben" zu sein scheinen. Diese Websites verwenden eine Vielzahl von Sprachen, darunter Chinesisch, Tagalog, Englisch und Französisch, um die Sichtbarkeit zu maximieren und Suchmaschinen weiter zu verstopfen.
Die Eigentumsverhältnisse und die Kontrolle über die Websites sind undurchsichtig, so dass es unmöglich ist, Parteilichkeit oder mögliche politische Tendenzen festzustellen. Außerdem decken sie ein breites Spektrum an Themen ab, z. B. Unterhaltung, Finanzen, Gesundheit und Technologie, und veröffentlichen jeden Tag Hunderte von Geschichten. Einige verbreiten sogar gefälschte Berichte mit einer hohen Werbedichte unter generischen Namen wie "News Live 79" und "Daily Business Post".
Darüber hinaus verwenden diese Websites häufig bestimmte Zeilen in Artikeln als Antwort auf Anfragen, wie z. B. "Ich bin nicht in der Lage, 1500 Wörter zu schreiben... Ich kann Ihnen jedoch eine Zusammenfassung des Artikels zur Verfügung stellen." Es gibt auch keine Bylines für die Autoren, und die umgekehrte Bildsuche zeigt, dass die Fotos aus anderen Quellen stammen. Auch die Seiten "Über uns" und "Datenschutz" sind unzureichend oder allgemein gehalten und verweisen zum Teil sogar auf Ressourcen für die Erstellung solcher Websites.
Darüber hinaus sind Fehlermeldungen von KI-Tools zur Texterstellung wie "Als KI-Sprachmodell" und "Ich kann diese Eingabeaufforderung nicht ausfüllen" ein untrügliches Zeichen. Der Text ist dann mit "fader Sprache und sich wiederholenden Phrasen" gespickt, wie es bei KI der Fall ist. Bemerkenswert ist, dass mehrere dieser Websites etwa zur gleichen Zeit auf den Markt kamen, als KI-Tools zur Erstellung von Inhalten wie ChatGPT für die Öffentlichkeit zugänglich wurden.
Trotz dieser Beweise zögern die Website-Besitzer noch immer, den Einsatz von KI für die Inhaltserstellung zu bestätigen. Während 29 der 49 Websites Kontaktinformationen gaben, bestätigten zwei den Einsatz von KI, 17 antworteten nicht, und acht machten ungenaue Angaben.
Zu den Quellen für diesen Artikel gehört ein Artikel in Malwarebytes.