...

BRIEF dociera do polskich firm i ich pracowników – do wszystkich tych, którzy poszukują inspiracji w biznesie i oczekują informacji o ludziach, trendach i ideach.

Skontaktuj się z nami

Deepfakes – nie daj się oszukać technologii wideo: 5 przesłanek, że film może być fałszywy

Deep fake fałszywy film

Rosną obawy związane z deepfakes, czyli nagraniami stworzonymi przez sztuczną inteligencję, w których zazwyczaj twarz jednej osoby jest nałożona na inna postać. Rozwój technologii przyniósł w tym obszarze medium, którego potencjał jest przerażający.

Przykładem technologii deepfakes jest pokazowy „wywiad” z Vladimirem Putinem. Wideo prezentuje jedynie możliwości wykorzystania tej technologii, a konwencja rozmowy pozwala gołym okiem ocenić, że nie jest to prawdziwy wywiad. Nietrudno sobie jednak wyobrazić, jak techniki deepfakes będą się rozwijać i że mogą być użyte w złych zamiarach, które prowadzą do poważnych naruszeń.

screen-web-design-developing-codes-1936299 (1)
fot. Markus Spiske/pexels.com

Ocena prawdziwości informacji staje się swoistym obowiązkiem. Trzeba zwiększyć czujność już teraz i wyrobić nawyk uważnego przyglądania się także materiałom wideo. Niedługo technologia deepfakes może być na tyle doskonała, że fałsz informacji będzie mogła „dostrzec” jedynie inna technologia.

Poniżej dekonspiracja deepfake z przykładami 5 niedociągnięć technologii:

1. Różnice w rozdzielczości obrazu między twarzą lub sylwetką a resztą nagrania

Filmy źródłowe często mają lepszą jakość niż docelowy plik, co może dawać dziwny efekt, w którym twarz jest w bardzo dobrej rozdzielczości, a tło w wyraźnie gorszej. Można to zobaczyć w filmiku: Steve Buscemi / Jennifer Lawrence, który stał się bardzo popularny. Widać tu wyraźne rozmycie tła ze Złotych Globów w porównaniu do bardzo żywego obrazu twarzy.

2. „Rozmazany” widok przedmiotów lub mało płynny ruch

Takie efekty są często skutkiem deepfake w ujęciach, w których twarz jest zasłonięta lub pod ostrym kątem do widza. Widoczne jest to na nagraniu, w którym Jim Carrey jest podstawiony w postać graną przez Jacka Nicholsona w „Lśnieniu”. Brak płynności ruchu wyraźnie widać w scenie z kwestią: „Here’s Johnny!”.

3. Niekonsekwentnie skalowane twarze

Deepfake z ujęciami kamery pod wieloma kątami, może nie radzić sobie ze skalowaniem twarzy i przekształcaniem jej tak, aby uzyskać odpowiednią – wiarygodną wielkość we wszystkich scenach. Przykładem tego problemu może być wideo: Sylvester Stallone Terminator 2.

4. Zmienny obrys twarzy i sylwetki

Jeśli krawędzie twarzy na obrazie (jak broda, brwi, kości policzkowe), a także cechy charakterystyczne (jak zarost, zmarszczki czy znamiona), zmieniają się w trakcie filmu, możemy mieć do czynienia z deepfake. Takie „niekonsekwencje” ze zmianami w linii kości policzkowych i szczęki można zaobserwować w wideo Bill Hader/Tom Cruise.

5. Różne odcienie skóry i „świecącą się” cera

Dopasowywanie odcienia skóry i ruchów twarzy, szczególnie na granicach obrazu jest ciągle jeszcze dla deepfake trudne, podobnie jak charakterystyczny połysk cery. Ten przykład dobrze widać w nagraniu: Jim Carrey / Alison Brie.


Źródło: F5 Networks

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF