Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Novel multi-modal obstruction module for diabetes mellitus classification using explainable machine learning

Tytuł:
Novel multi-modal obstruction module for diabetes mellitus classification using explainable machine learning
Autorzy:
Shaik, Reehana
Siddique, Ibrahim
Data publikacji:
2024
Słowa kluczowe:
diabetes mellitus
explainable ML
electrocardiogram
non-invasive method
photoplethysmography
feature extraction
Język:
angielski
Dostawca treści:
BazTech
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie  Pełny tekst  Link otwiera się w nowym oknie
Diabetes Mellitus (DM) is a persistent metabolic disorder which is characterized by increased blood glucose level in the blood stream. Initially, DM occurs while the insulin secretion in the pancreas has a disability to secrete or to use hormone for the metabolic process. Moreover, there are different types of DM depending on the physiological process, and the types include Type1 DM, Type2 DM and Gestational DM. Electrocardiography (ECG) waves are used to detect the abnormal heartbeats and cannot directly detect DM, but the wave abnormality can indicate the possibility and presence of DM. Whereas the Photoplethysmography (PPG) signals are a non-invasive method used to detect changes in blood volume that can monitor BG changes. Furthermore, the detection and classification of DM using PPG and ECG can involve analyzing the functional performance of these modalities. By extracting the features like R wave (W1) and QRS complex (W2) in the ECG signals and Pulse Width (S1) and Pulse Amplitude Variation (S2) can detect DM and can be classified into DM and Non-DM. The authors propose a Novel architecture in the basis of Encoder Decoder structure named as Obstructive Encoder Decoder module. This module extracts the specific features and the proposed novel Obstructive Erasing Module remove the remaining artifacts and then the extracted features are fed into the Multi-Uni-Net for the fusion of the two modalities and the fused image is classified using EXplainable Machine Learning (EX-ML). From this classification the performance metrics like Accuracy, Precision, Recall, F1-Score and AUC can be determined.
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki (2025).

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies