Please use this identifier to cite or link to this item: https://repositorio.ufu.br/handle/123456789/39534
Full metadata record
DC FieldValueLanguage
dc.creatorMorais Filho, Cleiton Kennedy de-
dc.date.accessioned2023-11-28T14:12:30Z-
dc.date.available2023-11-28T14:12:30Z-
dc.date.issued2023-11-14-
dc.identifier.citationMORAIS FILHO, Cleiton Kennedy de. Implementação do Q-learning no rastreamento de referências constantes em um aeropêndulo. 2023. 44 f. Trabalho de Conclusão de Curso (Graduação em Engenharia Mecatrônica) – Universidade Federal de Uberlândia, Uberlândia, 2023.pt_BR
dc.identifier.urihttps://repositorio.ufu.br/handle/123456789/39534-
dc.languageporpt_BR
dc.publisherUniversidade Federal de Uberlândiapt_BR
dc.rightsAcesso Abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/us/*
dc.subjectAprendizado por reforçopt_BR
dc.subjectQ-learningpt_BR
dc.subjectAeropêndulopt_BR
dc.subjectControle em malha fechadapt_BR
dc.titleImplementação do Q-learning no rastreamento de referências constantes em um aeropêndulopt_BR
dc.title.alternativeImplementation of Q-learning in tracking constant references in an aeropendulumpt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1Assis, Pedro Augusto Queiroz de-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/5309540309123503pt_BR
dc.contributor.referee1Andrade, João Rodrigo-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/3633955382225394pt_BR
dc.contributor.referee2Paes, Luiz Eduardo dos Santos-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/7357828735124785pt_BR
dc.creator.LattesNão possuipt_BR
dc.description.degreenameTrabalho de Conclusão de Curso (Graduação)pt_BR
dc.description.resumoO objetivo deste trabalho é aplicar um método de aprendizado de máquina no controle de um aeropêndulo. Especificamente, o método \textit{Q-Learning} de aprendizado por reforço é utilizado para fazer com que a haste do aeropêndulo seja guiada para uma referência. Para isso, primeiramente um modelo matemático não linear para descrever a dinâmica do sistema é desenvolvido. Mais ainda, o espaço de estados e ações admissíveis foram discretizados, e foi definida uma função de recompensas para fazer com que o agente aprenda a realizar a tarefa de controle. Tal função retorna recompensas positivas ao agente caso a haste permaneça em um ângulo de referência com a base. Já recompensas negativas são atribuídas quando um estado terminal é atingido. As ações possíveis de serem tomadas em um estado são acelerar ou desacelerar o motor. A magnitude da aceleração/desaceleração depende da magnitude do erro de rastreamento. Análises do número de episódios de treinamento necessários para que o agente aprenda a realizar a tarefa, e da influência dos parâmetros de ajuste no aprendizado são realizadas. Os resultados mostram que o agente aprendeu a controlar o aeropêndulo sem erro de rastreamento em regime permanente em todos os casos após o treinamento, indicando a viabilidade da aplicação deste tipo de método no controle de sistemas não lineares. Identificou-se que são necessários aproximadamente 2900 episódios para que o aprendizado seja concluído. Mais ainda, verificou-se que ao aumentar o fator de ganância e a taxa de aprendizagem, a resposta transitória do sistema melhorou. Já variando-se o fator de desconto, os melhores resultados foram obtidos com valores intermediários.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.courseEngenharia Mecatrônicapt_BR
dc.sizeorduration44pt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA MECANICApt_BR
dc.orcid.putcode147692878-
Appears in Collections:TCC - Engenharia Mecatrônica

Files in This Item:
File Description SizeFormat 
ImplementaçãoQlearningRastreamento.pdfTCC14.13 MBAdobe PDFThumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons