Please use this identifier to cite or link to this item: https://repositorio.ufu.br/handle/123456789/14516
metadata.dc.type: Dissertação
metadata.dc.rights: Acesso Aberto
Title: Comparação entre as redes LVQ e MLP no controle de próteses virtuais para membros superiores
metadata.dc.creator: Caetano, Daniel Stefany Duarte
metadata.dc.contributor.advisor1: Cardoso, Alexandre
metadata.dc.contributor.advisor-co1: Lamounier Júnior, Edgard Afonso
metadata.dc.contributor.referee1: Patrocínio, Ana Claudia
metadata.dc.contributor.referee2: Nunes, Fátima de Lourdes dos Santos
metadata.dc.description.resumo: Durante o processo de reabilitação, os indivíduos que tenham sofrido uma perda total ou parcial dos membros superiores estão expostas a muitos riscos. Além disso, um grande esforço mental ´e exigido durante a fase de treinamento para se adaptar a uma prótese real. Em muitos casos, a utilização de Realidade Virtual na Medicina tem provado ser uma excelente ferramenta para avaliação do risco e apoio, além de reduzir o esforço mental necessário. Para ser útil uma prótese virtual deve ter uma grande semelhança com a real em termos de resposta. Por esta razão, as Redes Neurais Artificiais têm sido exploradas para serem aplicadas na fase de treinamento para proporcionar a resposta em tempo real. O objetivo deste estudo é comparar o desempenho entre a rede neural LVQ e MLP no reconhecimento de padrões EMG, visando melhor controle de próteses virtuais para membros superiores. Para isso, diferentes técnicas de extração de características e métodos de processamento do sinal serão investigadas. Com isto utilizando-se a rede LVQ, a técnica de extração de característica baseada no modelo autoregressivo e uma média de 10% dos padrões de treinamento, alcançou-se 99% de eficiência para os movimentos de mão e 97% de eficiência para os movimentos de braço.
Abstract: During the rehabilitation process, individuals who have experienced a total or partial loss of upper limbs are exposed to many risks. Besides this, a great mental effort is required during the training phase to adapt to a real prosthesis. In many cases, the use of Virtual Reality in Medicine has proven to be an excellent tool for evaluation and support as well as mitigates risk and reduces the mental effort required. In order to be useful, virtual prosthesis must have a great similarity with the real world. For this reason, artificial neural networks have been explored to be applied in the training phase in order to provide real time response. The objective of this study is to compare the performance of the LVQ and MLP neural networks in EMG pattern recognition. To achieve this, different feature extraction techniques for simulation and control of virtual prostheses for upper limbs are investigated. Using the LVQ neural network, autoregressive model as a feature extraction technique and an average of 10% of all training patterns, achieved up 99% of efficiency for the hand movements and 97% of efficiency the arm movements.
Keywords: Extração de características
Reabilitação
Realidade virtual
Reconhecimento de padrões EMG
Redes neurais
EMG pattern recognition
Feature extraction
Neural networks
Rehabilitation
Virtual reality
Prótese
Reconhecimento de padrões
metadata.dc.subject.cnpq: CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA
metadata.dc.language: por
metadata.dc.publisher.country: BR
Publisher: Universidade Federal de Uberlândia
metadata.dc.publisher.initials: UFU
metadata.dc.publisher.department: Engenharias
metadata.dc.publisher.program: Programa de Pós-graduação em Engenharia Elétrica
Citation: CAETANO, Daniel Stefany Duarte. Comparação entre as redes LVQ e MLP no controle de próteses virtuais para membros superiores. 2012. 120 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012.
URI: https://repositorio.ufu.br/handle/123456789/14516
Issue Date: 19-Dec-2012
Appears in Collections:DISSERTAÇÃO - Engenharia Elétrica

Files in This Item:
File Description SizeFormat 
d.pdf1.65 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.