Kurz notiert
Die Entwicklung von KI-Programmen zur Erstellung und Bearbeitung von Bildern und Videos
In der Welt der künstlichen Intelligenz (KI) verzeichnen Programme zur Erstellung und Bearbeitung von Bildern und Videos beeindruckende Fortschritte. Diese Technologien versprechen nicht nur Effizienzgewinne in vielen Anwendungsbereichen, sondern bergen auch ein erhebliches Missbrauchspotenzial. Vor diesem Hintergrund hat OpenAI kürzlich „Sora“ vorgestellt, eine neue KI, die aus Text-Prompts Videos (Ein Prompt ist eine textbasierte Eingabe, die einem KI-System sagt, was es tun soll) generieren kann. Auch wenn die genauen Veröffentlichungspläne für „Sora“ noch nicht bekannt sind, wird deutlich, dass sich diese Technologie rasch weiterentwickelt und bereits beeindruckende Ergebnisse liefert.
"Sora" und die Zukunft der KI-Generierung von Videos
OpenAI plant intensive Tests, um möglichen Missbrauch zu verhindern, doch vergangene Erfahrungen zeigen, dass Einschränkungen in KI-Programmen umgangen werden können. Neben „Sora“ gibt es bereits zahlreiche andere Programme, die Bilder und Videos automatisiert erstellen oder bearbeiten können. Besonders vor dem Hintergrund wichtiger bevorstehender Wahlen und der Besorgnis über die potenzielle Beeinflussung des Wahlkampfs durch Deepfakes hat die öffentliche Diskussion über die Fähigkeiten, Grenzen und das Missbrauchspotenzial solcher Technologien stark zugenommen.
Expertenmeinungen
In einem Interview des SMC (Science Media Center) äußerten sich führende Forscher aus den Bereichen KI, IT-Sicherheit und Desinformation zu diesem Thema.
Hoffmann betont die Seltenheit politischer Deepfakes und hebt hervor, dass unplausible Aussagen in solchen Videos eher Misstrauen als Überzeugung hervorrufen.
Kessler warnt vor der wiederholten Konfrontation mit Falschinformationen und betont die Bedeutung von Aufklärung und Sensibilisierung der Öffentlichkeit.
Jungherr unterstreicht, dass der Einfluss von KI-generierten Inhalten weniger von der Technologie selbst als von der Bereitschaft politischer Eliten und Medien abhängt, solche Inhalte zu verbreiten.
Humprecht betont die Notwendigkeit ganzheitlicher Ansätze, die über technische Lösungen hinausgehen, und fordert verstärkte Bildungsinitiativen sowie Zusammenarbeit zwischen verschiedenen Akteuren
Die Forschung verdeutlicht,
dass Mediennutzer Deepfakes oft nicht zuverlässig erkennen können.
Besonders überzeugend wirken jene, die inhaltlich plausibel sind, während unplausible oder überraschende Aussagen Skepsis hervorrufen.
Daher sind breit angelegte Gegenmaßnahmen erforderlich, die nicht nur die Verbreitung von Desinformation eindämmen, sondern auch die Fähigkeit der Menschen stärken, Falschinformationen selbst zu erkennen.
Angesichts des zunehmend authentisch wirkenden Auftritts von KI-generierten Videos wird die Unterscheidung von echt und gefälscht immer schwieriger. Es ist daher von entscheidender Bedeutung, dass individuelle Informationskompetenz, gesellschaftliche Aufklärung, vertrauenswürdige Quellen, qualitativer Journalismus und die Arbeit von Fact-Checkern sowie die (Selbst-)Regulierung von Plattformen gefördert werden.
Social-Media-Plattformen sollten aktiv die Verbreitung desinformierender Inhalte einschränken und Nutzer durch Warnhinweise sensibilisieren.