Przełomowa technologia wykrywania deepfake’ów AI od firmy HONOR będzie dostępna na całym świecie od kwietnia 2025 roku. Rozwiązanie to umożliwia użytkownikom zwalczanie rosnącego zagrożenia deepfake’ami. Wykorzystując opartą na sztucznej inteligencji analizę treści wideo i obrazów w czasie rzeczywistym, funkcja zapewnia natychmiastowe ostrzeżenia przed potencjalnymi treściami tego typu.
Chociaż rozwój sztucznej inteligencji przyniósł niesamowite postępy, stwarza on również niewidoczne wyzwania, takie jak rozprzestrzenianie się deepfake’ów. Według Entrust Cybersecurity Institute w 2024 r. co pięć minut dochodzi do ataku typu deepfake. Te zmanipulowane obrazy, nagrania audio i filmy stają się coraz trudniejsze do wykrycia, a badanie Deloitte 2024 Connected Consumer Study ujawniło, że 59% respondentów ma trudności z odróżnieniem treści stworzonych przez człowieka od treści wygenerowanych przez sztuczną inteligencję.
Nie może zatem dziwić, że 84% osób zaznajomionych z generatywną sztuczną inteligencją uważa, że takie treści powinny być oznaczone. Marka HONOR uważa, że proaktywne środki wykrywania deepfake’ów i współpraca branżowa mają kluczowe znaczenie w kontekście przeciwdziałania zagrożeniom cyfrowego świata. Liderzy branży podzielają ten pogląd, a organizacje takie jak Content Provenance and Authenticity (C2PA) pracują nad opracowaniem standardów technicznych, mających na celu certyfikację źródła i historii treści cyfrowych, w tym zasobów tworzonych przez sztuczną inteligencję.
Wykorzystanie rozwiązań rozpoznających deepfake’i na urządzeniach mobilnych będzie potężną bronią do walki z nimi. Zwracanie uwagi na wady materiałów, które mogą pozostać niezauważone przez ludzkie oko, takie jak nienaturalny kontakt wzrokowy, oświetlenie, klarowność obrazu i odtwarzanie wideo, mogą powstrzymać ludzi przed dalszym zaangażowaniem i uchronić ich przed zagrożeniem – powiedział Marco Kamiya, przedstawiciel Organizacji Narodów Zjednoczonych do spraw Rozwoju Przemysłowego.
Technologia wykrywania deepfake’ów AI firmy HONOR zadebiutowała na targach IFA 2024. Funkcja ta analizuje subtelne niespójności, często niewidoczne dla ludzkiego oka, w tym niedoskonałości syntetyczne na poziomie pikseli, artefakty kompozycji, ciągłość między klatkami oraz spójność fryzury i rysów twarzy. Po wykryciu zmanipulowanej zawartości natychmiast zostanie wydane ostrzeżenie, które pomoże ochronić użytkowników przed potencjalnym ryzykiem płynącym z nierozpoznania deepfake’a.