Ersteller von YouTube-Videos müssen bald die Verwendung von künstlicher Intelligenz (KI) offenlegen oder sie riskieren eine Sperrung. Das berichten verschiedene Medien unter Berufung auf die Agentur Associated Press (AP).
«Unser Ansatz für verantwortungsvolle KI-Innovation» lautet ein Beitrag, der am Dienstag im offiziellen YouTube-Blog erschien. Darin umreissen die Vizepräsidentinnen für Produktmanagement, Jennifer Flannery O’Connor und Emily Moxley, eine Reihe von Aktualisierungen der KI-Richtlinien.
«Generative KI hat das Potenzial, die Kreativität auf YouTube freizusetzen und das Erlebnis für Zuschauer und Schöpfer auf unserer Plattform zu verändern. Aber genauso wichtig ist, dass diese Möglichkeiten mit unserer Verantwortung für den Schutz der YouTube-Community in Einklang gebracht werden müssen.»
Im Rahmen der jüngsten Änderungen, die im nächsten Jahr in Kraft treten werden, erhalten YouTuber neue Optionen, um anzugeben, ob sie KI-generierte Videos veröffentlichen. Das könnten zum Beispiel Videos sein, die ein Ereignis realistisch darstellen, das nie stattgefunden hat, oder jemanden zeigen, der etwas sagt oder tut, was er eigentlich nicht gesagt oder getan hat.
Autoren, die nicht offenlegen, ob sie KI-Tools verwendet haben, um «veränderte oder synthetische» Videos zu erstellen, müssen künftig mit Strafen rechnen. Dazu zählt etwa die Entfernung der Inhalte oder die Suspendierung vom Umsatzbeteiligungsprogramm der Plattform.
Die Kennzeichnung sei besonders wichtig in Fällen, in denen der Inhalt sensible Themen wie Wahlen, laufende Konflikte und Krisen im Gesundheitswesen oder öffentliche Amtsträger behandele, so O’Connor und Moxley.
Zur «Moderation von Inhalten» setzt die Plattform selber künstliche Intelligenz ein. Damit würden die mehr als 20’000 Prüfer bei Google dabei unterstützt, Inhalte auszusortieren, die gegen ihre Regeln verstiessen. Diese Technologie habe ebenso dazu beigetragen, «neue Formen des Missbrauchs» schneller zu erkennen.
Im Kontext der Datenschutzrichtlinien werde es YouTube in den kommenden Monaten ermöglichen, dass Anträge auf Entfernung von KI-generierten Videos gestellt werden können. Dies könnten zum Beispiel Videos sein, die eine identifizierbare Person simulieren, einschliesslich ihres Gesichts oder ihrer Stimme. Jedoch würden nicht alle Inhalte entfernt, man berücksichtige eine «Reihe von Faktoren» bei der Bewertung solcher Anfragen.
Kommentare