OpenAI, ein führendes Unternehmen im Bereich der künstlichen Intelligenz (KI), hat gerade Sora vorgestellt, eine Text-zu-Video-Anwendung, die Text in Videos mit realistischen oder fantasievollen Szenen umwandeln kann.
Sora ist eine generative KI-Anwendung, eine Technologie, die neue Inhalte auf Basis vorhandener Daten erzeugen kann. Sora ist eine Weiterentwicklung von Dall-E, einer Text-zu-Bild-Anwendung, die ebenfalls von OpenAI erstellt wurde.
Beispiele für Soras Text-zu-Video-Ergebnisse
Mit Sora können Benutzer kurze Videos nur mit Text erstellen. Zum Beispiel können Benutzer „Eine verschneite Stadt Tokio mit mehreren Menschen, die das schöne Wetter genießen, und es flattern Kirschblüten“ eingeben. Dann produziert Sora ein Video, das dieser Beschreibung entspricht.
Die von Sora produzierten Videos sind von sehr hoher Qualität, mit sehr detaillierten Details, komplexen Kamerabewegungen und Charakteren mit lebendigen Emotionen. Sora kann auch Videos mit einer Dauer von bis zu 60 Sekunden erstellen, länger als andere Text-zu-Video-Anwendungen wie Lumiere von Google und Make-A-Video von Meta.
Sora kann Politik, Wirtschaft und Unterhaltung beeinflussen
Allerdings wirft Sora auch Kontroversen über die Ethik der generativen KI auf. Einerseits erleichtert Sora es Benutzern, kreative Videos zu erstellen, ohne spezielle Fähigkeiten haben zu müssen. Andererseits hat Sora auch das Potenzial, die Kreativindustrie, menschliche Arbeitsplätze und die Wahrheit der Informationen zu stören.
Eine Branche, die von Sora bedroht wird, ist die Filmfootage-Branche, die aus kurzen Videos besteht, die normalerweise für die Filmproduktion, Werbung oder Dokumentarfilme verwendet werden. Mit der Existenz von Sora kann der Bedarf an Filmfootage durch KI-generierte Videos ersetzt werden.
Darüber hinaus kann Sora auch zur Erstellung von Hoax-Videos verwendet werden, das sind gefälschte Videos, die mit der Absicht erstellt werden, jemanden zu täuschen oder dessen Ruf zu schädigen. Hoax-Videos können sehr gefährlich sein, insbesondere inmitten erhitzter sozialer und politischer Bedingungen weltweit.
Um Missbrauch von Sora zu verhindern, hat OpenAI mehrere Schritte unternommen.
- Erstens ist Sora noch nicht für die Öffentlichkeit zugänglich, sondern nur für ausgewählte Designer, Filmemacher und visuelle Künstler, um Input zu erhalten.
- Zweitens wird Sora noch vom Red Team von OpenAI getestet, einem Team, das mit der Untersuchung der Risiken und des potenziellen Missbrauchs von Sora beauftragt ist, bevor es der Öffentlichkeit zugänglich gemacht wird.
- Drittens fügt OpenAI ein Wasserzeichen zu den Metadaten und Bildern hinzu, das darauf hinweist, dass das Video das Ergebnis von KI ist. OpenAI verwendet den Wasserzeichenstandard der Coalition for Content Provenance and Authenticity (C2PA), der auch von Meta zur Kennzeichnung von KI-generierten Inhalten auf ihren Social-Media-Plattformen wie Facebook und Instagram übernommen wurde.
Mit diesem Wasserzeichen soll es Benutzern erleichtert werden, zwischen Originalvideos und KI-generierten Videos zu unterscheiden. Dies ist wichtig, um das Auftreten von Fehlinformationen zu reduzieren, das sind falsche oder irreführende Informationen, die viele Parteien schädigen können.
Sora hat auch die Aufmerksamkeit anderer Technologieunternehmen auf sich gezogen, wie zum Beispiel Apple. Laut kursierenden Nachrichten wird Apple KI-Funktionen in iOS 18 vorstellen, die mit Sora in Zusammenhang stehen, auf der WWDC-Veranstaltung, die im Juni stattfinden wird. Es wird auch gemunkelt, dass Apple den Neural Engine, einen speziellen KI-Verarbeitungsmotor, im Apple A18-Chip verbessern wird, der vom neuesten iPhone-Modell verwendet wird.
Sora ist ein Beispiel für den schnellen Fortschritt der KI-Technologie, aber es ist auch voller Herausforderungen. Was ist Ihre Meinung zu Sora? Sind Sie daran interessiert, es auszuprobieren? Oder machen Sie sich Sorgen über seine Auswirkungen?“