Purpose: The aim of this study is to present a cutting-edge image analysis algorithm designed to estimate the probability of modifications in digital images, a critical component in cybersecurity for detecting altered content on the Internet. This technique enhances the accuracy of change detection by distinguishing real inconsistencies from accidental changes. As the problem of sophisticated image processing software and fake images continues to rise on the Internet, the issue of image authenticity becomes increasingly crucial in many areas of science and society. Traditional visual inspection methods are inadequate, as research shows human perception is limited in recognizing the authenticity of images. This study aims to improve the accuracy of detecting modifications by distinguishing authentic inconsistencies from random anomalies. Project and Methods: This project involves developing an algorithm that leverages noise analysis and a statistical validation step to detect image modifications. The algorithm employs the False Positive Rate Index (FPRI) to manage false positives, providing a reliable confidence level for each detection. The method includes visual exploration to interpret detections and compares the algorithm’s performance with other state-of-the-art techniques in scenarios such as retouching, coloring, and merging. The algorithm analyzes noise in images, considering changes in its statistical properties due to image processing like noise reduction, demosaicing, chromatic aberration correction, color matching, gamma correction, and image compression. It compares global noise curves with local ones to identify potential changes, with results visualized using heat maps. Results: The algorithm demonstrates promising performance across various test scenarios, successfully identifying true modifications among random events. However, it shows limitations in detecting certain types of forgeries, such as internal copy transfer and merging in high-noise areas. Tests conducted on various data sets, including scenarios of retouching, coloring, and merging, confirm the algorithm’s effectiveness in detecting modifications. The results are compared with other noise analysis methods such as Splicebuster, Noiseprint, and Mahdian, showing superior performance in most cases. Conclusions: The proposed method represents a significant advance in image forgery detection within the field of cybersecurity, offering rigorous statistical validation and a measurable level of detection confidence. Despite some challenges in detecting specific types of manipulation, the algorithm is a valuable tool in digital image analysis and forensic research, enhancing the reliability of image alteration detection. As the use of digital technologies increases, so does the importance of image interpretation in areas like fire investigations and other incidents involving records from both classical and thermographic imaging systems. This method is particularly valuable in forensic investigations, where objective evidence of image authenticity is crucial. Future challenges include the use of neural networks to replicate the characteristic noise of original images to hide alterations, underscoring the need for continued development of advanced forgery detection techniques.
Cel: Celem tego badania jest przedstawienie najnowocześniejszego algorytmu analizy obrazu zaprojektowanego do oceny prawdopodobieństwa modyfikacji obrazów cyfrowych, co jest kluczowym narzędziem w wykrywaniu zmienionej treści. Technika ta zwiększa dokładność wykrywania zmian poprzez odróżnienie rzeczywistych niespójności od zmian przypadkowych. W miarę narastania problemu fałszywych obrazów w Internecie, kwestia autentyczności obrazu staje się coraz bardziej istotna w wielu obszarach nauki i społeczeństwa. Tradycyjne metody kontroli wizualnej są niewystarczające, ponieważ badania pokazują, że ludzka percepcja ma ograniczone możliwości rozpoznawania autentyczności obrazów. Projekt i metody: Projekt ten obejmuje opracowanie algorytmu wykorzystującego analizę szumu i etap walidacji statystycznej w celu wykrycia modyfikacji obrazu. Algorytm opiera się na wskaźniku częstości fałszywych trafień (FPRI) do zarządzania fałszywymi alarmami, zapewniając niezawodny poziom ufności dla każdego wykrycia. Metoda obejmuje eksplorację wizualną w celu interpretacji wykrycia i porównanie wydajności algorytmu z innymi najnowocześniejszymi technikami w scenariuszach, takich jak retusz, kolorowanie i łączenie. Algorytm analizuje szum w obrazach, biorąc pod uwagę zmiany jego właściwości statystycznych w wyniku procesów przetwarzania obrazu. Wyniki: Algorytm wykazuje obiecującą wydajność w różnych scenariuszach testowych, skutecznie identyfikując prawdziwe modyfikacje wśród zdarzeń losowych. Wykazuje jednak ograniczenia w wykrywaniu niektórych rodzajów fałszerstw, takich jak wewnętrzne przesyłanie kopii i łączenie dokumentów w obszarach o dużym zaszumieniu. Testy przeprowadzone na różnych zbiorach danych, obejmujące retusz, kolorowanie i łączenie, potwierdzają skuteczność algorytmu w wykrywaniu modyfikacji. Wyniki porównuje się z innymi metodami analizy szumu, takimi jak Splicebuster, Noiseprint i Mahdian, w większości przypadków wykazując lepszą wydajność. Wnioski: Proponowana metoda stanowi znaczący postęp w wykrywaniu fałszywych obrazów w dziedzinie cyberbezpieczeństwa, oferując rygorystyczną walidację statystyczną i mierzalny poziom pewności wykrycia. Pomimo pewnych wyzwań związanych z wykrywaniem określonych rodzajów manipulacji, algorytm jest cennym narzędziem w cyfrowej analizie obrazu i badaniach kryminalistycznych. Wraz ze wzrostem wykorzystania technologii cyfrowych rośnie znaczenie interpretacji obrazu, m.in. w badaniach pożarowych i eksploracji zapisów z systemów obrazowania klasycznego i termowizyjnego.
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki (2025).