Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Differentially private federated learning to protect identity in stress recognition

Over the last decade, the use of Automatic emotion recognition has become increasingly widespread in response to the growing need to improve human life quality. The used emotion data encompasses a wealth of personal information, which includes but is not limited to gender, age, health condition, identity, and so on. These demographic information, known as soft or hard biometrics, are private and the user may not share them with others. Unfortunately, with the adversarial algorithms, this information can be inferred automatically, creating the potential for user’s data breach. To address the above issues, we present a federated learning–based approach to hide identity-related information in identity subject task, while maintaining their effectiveness for emotion utility task. We also introduce differential privacy mechanism, a method that explicitly limits the data leakage from federated learning model. Experiments conducted on the WESAD dataset demonstrate that stress recognition tasks can be effectively carried out while decreasing user identity and ensuring differential privacy guarantees; the intensity of the amount of noise derived from differential privacy can be tuned to balance the trade-off between privacy and utility.
W ciągu ostatniej dekady zastosowanie automatycznego rozpoznawania emocji stało się coraz bardziej powszechne w odpowiedzi na rosnącą potrzebę poprawy jakości życia człowieka. Wykorzystywane dane dotyczące emocji obejmują bogactwo danych osobowych, które obejmują między innymi płeć, wiek, stan zdrowia, tożsamość itd. Te informacje demograficzne, zwane miękkimi lub twardymi danymi biometrycznymi, są prywatne i użytkownik nie może udostępniać ich innym osobom. Niestety, w przypadku algorytmów kontradyktoryjnych informacje te mogą zostać wywnioskowane automatycznie, co stwarza ryzyko naruszenia bezpieczeństwa danych użytkownika. Aby rozwiązać powyższe problemy, przedstawiamy stowarzyszone podejście oparte na uczeniu się, mające na celu ukrycie informacji związanych z tożsamością w zadaniu podmiotu tożsamości, przy jednoczesnym zachowaniu ich skuteczności w zadaniu użyteczności emocjonalnej. Wprowadzamy także mechanizm różnicowej prywatności, metodę, która wyraźnie ogranicza wyciek danych z federacyjnego modelu uczenia się. Eksperymenty przeprowadzone na zbiorze danych WESAD pokazują, że zadania rozpoznawania stresu można skutecznie wykonywać, zmniejszając jednocześnie tożsamość użytkownika i zapewniając zróżnicowane gwarancje prywatności; intensywność hałasu pochodzącego z różnicowej prywatności można dostroić, aby zrównoważyć kompromis między prywatnością a użytecznością.
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki i promocja sportu (2025).

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies