Aplikasi Deep Learning dalam Pengolahan Sinyal EMG untuk Pengenalan Gesture Tangan pada Prostesis Adaptif
##plugins.themes.bootstrap3.article.main##
Abstract
Penelitian ini mengembangkan sistem pengenalan gesture tangan berbasis sinyal elektromiografi (EMG) menggunakan teknik Deep Learning untuk aplikasi prostesis adaptif. Dalam penelitian ini, kami menggabungkan Jaringan Saraf Konvolusional (CNN) untuk ekstraksi fitur spasial dan Long Short-Term Memory (LSTM) untuk pemodelan urutan temporal sinyal EMG, dengan tujuan meningkatkan akurasi dan responsivitas sistem pengenalan gesture tangan. Model ini dilatih dengan data sinyal EMG yang dikumpulkan dari berbagai individu dengan berbagai tingkat pengalaman dan kondisi fisik, kemudian diuji menggunakan metrik akurasi, presisi, recall, dan F1-score. Hasil evaluasi menunjukkan bahwa kombinasi CNN dan LSTM mampu meningkatkan akurasi pengenalan gesture tangan, mencapai akurasi 92,3%, dengan F1-score 92,5%, dibandingkan dengan hanya menggunakan CNN. Selain itu, sistem yang dikembangkan menunjukkan latensi yang rendah (±50 ms) sehingga mampu merespons input secara real-time, yang esensial untuk pengendalian prostesis adaptif. Uji coba implementasi pada prototipe prostesis menunjukkan bahwa pengguna dapat mengendalikan prostesis dengan presisi yang tinggi dalam berbagai gesture tangan. Penelitian ini memberikan kontribusi signifikan dalam pengembangan prostesis adaptif yang lebih responsif dan alami, serta membuka peluang untuk pengembangan lebih lanjut pada sistem kontrol berbasis sinyal EMG dengan pendekatan Deep Learning.
##plugins.themes.bootstrap3.article.details##
[2] Liu, M., & Wang, L. (2020). Real-time gesture recognition using surface electromyography and deep neural networks. IEEE Access, 8, 159425-159433.
[3] He, H., & Wu, D. (2016). Transfer learning for brain–computer interfaces: A Euclidean space data alignment method. IEEE Transactions on Biomedical Engineering, 63(5), 1035-1045.
[4] Yu, H., & Zeng, Y. (2018). Deep convolutional neural networks for gesture recognition in EMG-based human-machine interfaces. Journal of Neural Engineering, 15(4), 046003.
[5] Zhang, L., & Li, W. (2018). Deep learning for electromyography-based gesture recognition: A review. Biological Cybernetics, 112(4), 379-397.
[6] Li, S., & Liu, Y. (2020). Gesture recognition from electromyography signals using convolutional neural networks. IEEE Transactions on Instrumentation and Measurement, 69(9), 6060-6069.
[7] Farina, D., & Lippiello, V. (2016). Design of EMG-driven prosthetic hands based on machine learning algorithms. IEEE Transactions on Biomedical Engineering, 63(10), 2102-2113.
[8] Vasilenko, D., & Zakharchenko, A. (2019). Artificial intelligence and machine learning in electromyography for controlling prosthetic limbs. Journal of NeuroEngineering and Rehabilitation, 16(1), 101.
[9] Lebedev, M. A., & Nicolelis, M. A. L. (2006). Brain–machine interfaces: Past, present and future. Trends in Neurosciences, 29(9), 536-546.
[10] Chavarriaga, R., & Millán, J. D. R. (2010). Learning from EEG: Towards intelligent brain–computer interfaces. IEEE Transactions on Biomedical Engineering, 57(4), 803-811.
[11] Saponara, S., & Fantini, M. (2017). High-performance embedded computing architectures for gesture recognition in electromyographic interfaces. IEEE Transactions on Biomedical Circuits and Systems, 11(5), 938-948.
[12] Qu, X., & Li, X. (2021). Hybrid deep learning for human-machine interfaces with EMG signals. IEEE Transactions on Neural Networks and Learning Systems, 32(5), 1853-1862.
[13] Xie, L., & Zhou, P. (2017). A hybrid deep learning model for electromyography signal classification for prosthesis control. Biomedical Signal Processing and Control, 34, 106-113.
[14] He, H., & Wu, D. (2019). A convolutional neural network for pattern recognition of surface EMG signals from multiple electrodes. IEEE Transactions on Biomedical Engineering, 66(10), 2777-2787.
[15] Shahin, M., & Hassan, A. (2019). Gesture recognition using convolutional neural networks and EMG signal classification. Journal of Electrical Engineering & Technology, 14(5), 2189-2197.