Deepfakes – nie daj się oszukać technologii wideo: 5 przesłanek, że film może być fałszywy
Rosną obawy związane z deepfakes, czyli nagraniami stworzonymi przez sztuczną inteligencję, w których zazwyczaj twarz jednej osoby jest nałożona na inna postać. Rozwój technologii przyniósł w tym obszarze medium, którego potencjał jest przerażający.
Przykładem technologii deepfakes jest pokazowy „wywiad” z Vladimirem Putinem. Wideo prezentuje jedynie możliwości wykorzystania tej technologii, a konwencja rozmowy pozwala gołym okiem ocenić, że nie jest to prawdziwy wywiad. Nietrudno sobie jednak wyobrazić, jak techniki deepfakes będą się rozwijać i że mogą być użyte w złych zamiarach, które prowadzą do poważnych naruszeń.
Ocena prawdziwości informacji staje się swoistym obowiązkiem. Trzeba zwiększyć czujność już teraz i wyrobić nawyk uważnego przyglądania się także materiałom wideo. Niedługo technologia deepfakes może być na tyle doskonała, że fałsz informacji będzie mogła „dostrzec” jedynie inna technologia.
Poniżej dekonspiracja deepfake z przykładami 5 niedociągnięć technologii:
1. Różnice w rozdzielczości obrazu między twarzą lub sylwetką a resztą nagrania
Filmy źródłowe często mają lepszą jakość niż docelowy plik, co może dawać dziwny efekt, w którym twarz jest w bardzo dobrej rozdzielczości, a tło w wyraźnie gorszej. Można to zobaczyć w filmiku: Steve Buscemi / Jennifer Lawrence, który stał się bardzo popularny. Widać tu wyraźne rozmycie tła ze Złotych Globów w porównaniu do bardzo żywego obrazu twarzy.
2. „Rozmazany” widok przedmiotów lub mało płynny ruch
Takie efekty są często skutkiem deepfake w ujęciach, w których twarz jest zasłonięta lub pod ostrym kątem do widza. Widoczne jest to na nagraniu, w którym Jim Carrey jest podstawiony w postać graną przez Jacka Nicholsona w „Lśnieniu”. Brak płynności ruchu wyraźnie widać w scenie z kwestią: „Here’s Johnny!”.
3. Niekonsekwentnie skalowane twarze
Deepfake z ujęciami kamery pod wieloma kątami, może nie radzić sobie ze skalowaniem twarzy i przekształcaniem jej tak, aby uzyskać odpowiednią – wiarygodną wielkość we wszystkich scenach. Przykładem tego problemu może być wideo: Sylvester Stallone Terminator 2.
4. Zmienny obrys twarzy i sylwetki
Jeśli krawędzie twarzy na obrazie (jak broda, brwi, kości policzkowe), a także cechy charakterystyczne (jak zarost, zmarszczki czy znamiona), zmieniają się w trakcie filmu, możemy mieć do czynienia z deepfake. Takie „niekonsekwencje” ze zmianami w linii kości policzkowych i szczęki można zaobserwować w wideo Bill Hader/Tom Cruise.
5. Różne odcienie skóry i „świecącą się” cera
Dopasowywanie odcienia skóry i ruchów twarzy, szczególnie na granicach obrazu jest ciągle jeszcze dla deepfake trudne, podobnie jak charakterystyczny połysk cery. Ten przykład dobrze widać w nagraniu: Jim Carrey / Alison Brie.
Źródło: F5 Networks