Mona Lisa wurde in Moskau mithilfe künstlicher Intelligenz wiederbelebt. Worüber macht sich der Westen wieder Sorgen?

Programmierer des Moskauer Zentrums für das Studium der künstlichen Intelligenz Samsung erstellten ein neuronales Netzwerk, um Videos aus statischen Bildern zu erstellen. Ein Team russischer IT-Spezialisten unter der Leitung von Jegor Sacharow demonstrierte dies am Beispiel von Mona Lisa und anderen bekannten Kunstwerken. Nach der Fahrt durch das neuronale Netz erwachte der Gioconda zum Leben. Es sieht nicht ungeschickt aus, wie bei verschiedenen Programmen zur Videobearbeitung, sondern sehr realistisch.

Mona Lisa, animiert vom neuronalen Netz

Neben Da Vincis Meisterwerk haben russische IT-Spezialisten die Porträts von Salvador Dali, Einstein, einem Mädchen mit einem Perlenohrring von Vermeer, wiederbelebt. Sie verwendeten auch ein neuronales Netz für Bilder bekannter Prominenter. Wie bei den Bildern hat es sich als recht zuverlässig herausgestellt.

Die Technologie, die den primären Namen Few-Shot (und informell „sprechende Köpfe“) erhielt, funktioniert nur mit den Köpfen von Objekten in den Bildern. Die Macher erklärten ausführlich den Mechanismus. Es ist wahr, dass Menschen, die die Algorithmen der KI nicht verstehen, kaum etwas verstehen werden. Kurz gesagt, Few-Shot kombiniert mehrere neuronale Netze gleichzeitig. Einer liest die Parameter des Gesichts, der andere passt sie an, um den Winkel zu ändern, der dritte schleift die Arbeit der vorherigen.

Ein wichtiger Unterschied zwischen einem neuronalen Netzwerk und Programmen für die Videobearbeitung besteht darin, dass hier kein einziger Frame gezeichnet ist. Künstliche Intelligenz analysiert nur die Bilder des gewünschten Objekts und keine ähnlichen. Je mehr solche Bilder vorhanden sind, desto größer sind die Chancen, ein möglichst realistisches Video zu erstellen.

Inhalt:

    Worüber sind westliche Wissenschaftler besorgt?

    Die Entwicklung der russischen Wissenschaftler hat in der ausländischen Presse breite Beachtung gefunden, nur nicht so, wie wir es gerne hätten. BBC-Journalisten nannten das neuronale Netz Few-Shot "die letzte Iteration der sogenannten Deepfake-Technologie". Dies ist ein neuronales Netzwerk, das von einem anonymen Benutzer Reddit erstellt wurde und mit dem Sie die Gesichter von Personen in Frames aus einem Video einbetten können. Der Schöpfer machte sich über einige Prominente und Leute im öffentlichen Raum lustig. Zum Beispiel hat Scarlett Johansson das Gesicht einer Schauspielerin aus dem Pornobereich gestochen. Ein Film mit Donald Trump in der Titelrolle und wurde viral.

    Mr. Bean als Donald Trump

    In einem Technologie-Review weisen russische IT-Spezialisten darauf hin, dass Few-Shot in der Gaming-Branche nützlich sein kann, um realistische Avatare zu erstellen. Aber nicht jeder glaubt ihnen. So sagte der Jurist der Universität von Texas, Robert Chesney, dass die Few-Shot-Technologie böswillig eingesetzt werden kann, da sie die Möglichkeit erweitert, gefälschte Videos zu erstellen. Fast jeder Mensch im Internet hat ein oder zwei echte Fotos. Dies ist völlig ausreichend, um gefälschte Inhalte zu erstellen, mit denen soziale Netzwerke und die Medien in letzter Zeit eifrig gekämpft haben.

    Dieses Video wurde nicht von russischen, sondern von asiatischen Programmierern erstellt. Die Entwickler geben die Details der Technologie nicht preis, aus Angst, dass ihre Entwicklung für schlechte Zwecke verwendet werden kann.

    Westliche Experten machen auf die Unvollkommenheit von Algorithmen aufmerksam, die solche gefälschten Videos von echten unterscheiden sollten. Der gleiche Chesney führt als Beispiel ein virales Video an, an dem die Kongressabgeordnete Nancy Pelosi teilnahm, eine der aktivsten Gegnerinnen der Politik von Donald Trump. In dem Video sieht Frau Pelosi auffällig aus. Anschließend stellte sich heraus, dass dies eine Fälschung ist und auch ohne die Teilnahme von KI erstellt wurde - die Macher verwendeten das Programm einfach, um das Video zu verlangsamen. Aber wenn die Algorithmen sozialer Netzwerke, in denen dieses Video aktiv verbreitet wurde, keine Fälschung erkennen konnten, wie steht es dann mit fortschrittlicheren Technologien wie Few-Shot?

    Es ist notwendig, den westlichen Medien Tribut zu zollen - ihre Position hat eine kurzfristige HYIP um das neuronale Netz geschaffen. Andernfalls hätten weit weniger Menschen von der Entwicklung erfahren. Es ist jedoch schwer zu sagen, wie sich das Rauschen auf die Weiterentwicklung der KI-Technologien auswirkt.

    Loading...

    Lassen Sie Ihren Kommentar