W erze Midjourney i DALL-E odróżnienie prawdy od fikcji jest trudniejsze niż kiedykolwiek. Nasza sprawdzarka zdjęć AI analizuje obrazy na poziomie pikseli, szukając śladów (artefaktów) pozostawionych przez algorytmy generatywne.
Co widzi algorytm, czego nie widzisz Ty?
Modele generatywne (GAN, Diffusion Models) są świetne w tworzeniu ogólnego obrazu, ale gubią się w detalach i strukturze:
- •🔍 Analiza szumu: Prawdziwe zdjęcia z aparatu mają specyficzny szum matrycy (ISO). Obrazy AI mają szum "zbyt idealny" lub nienaturalny.
- •👁️ Artefakty w oczach: Generatory często mają problem z idealną symetrią źrenic i refleksami świetlnymi w oczach (tzw. corneal reflections).
- •🎨 Błędy logiczne: Niespójne cienie, dziwne łączenia obiektów, "rozmyte" tło w miejscach, gdzie powinno być ostre.
- •🧬 Niewidzialne znaki wodne: Niektóre generatory (np. DALL-E 3) zaszywają w obrazie niewidoczne dla oka sygnatury, które nasz system potrafi odczytać.
Ograniczenia technologii
Detekcja AI to wyścig zbrojeń. Pamiętaj o ograniczeniach:
- •Kompresja niszczy dowody: Jeśli zdjęcie zostało mocno skompresowane (np. przesłane przez Messenger), ślady AI mogą zostać zatarte.
- •Edycja: Zdjęcie AI poddane lekkiej obróbce w Photoshopie może oszukać detektor.
- •Fałszywe alarmy: Czasami mocno wyretuszowane prawdziwe zdjęcie może zostać uznane za AI.
Traktuj wynik jako "wskaźnik prawdopodobieństwa", a nie wyrok sądowy. Łącz go z analizą logiczną (czy ten polityk naprawdę mógł to zrobić?).