Please use this identifier to cite or link to this item:
https://repositorio.ufu.br/handle/123456789/19337
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.creator | Paiva, Eduardo Costa de | - |
dc.date.accessioned | 2017-08-07T16:49:12Z | - |
dc.date.available | 2017-08-07T16:49:12Z | - |
dc.date.issued | 2017-08-01 | - |
dc.identifier.citation | PAIVA, Eduardo Costa de. Reconhecimento de emoção através da voz para integração em uma aplicação web. 2017. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Universidade Federal de Uberlândia, Uberlândia, 2017. | pt_BR |
dc.identifier.uri | https://repositorio.ufu.br/handle/123456789/19337 | - |
dc.language | por | pt_BR |
dc.publisher | Universidade Federal de Uberlândia | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject | Classificação de emoções | pt_BR |
dc.subject | Processamento de voz | pt_BR |
dc.subject | Algoritmos de aprendizagem | pt_BR |
dc.title | Reconhecimento de emoção através da voz para integração em uma aplicação web | pt_BR |
dc.title.alternative | Emotion recognition through voice for integration in a web application | pt_BR |
dc.type | Trabalho de Conclusão de Curso | pt_BR |
dc.contributor.advisor-co1 | Alves, Fabiano Silvério Ribeiro | - |
dc.contributor.advisor1 | Fernandes, Márcia Aparecida | - |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/8946715881289701 | pt_BR |
dc.contributor.referee1 | Rodrigues, Cláudio Camargo | - |
dc.contributor.referee1Lattes | http://lattes.cnpq.br/4104956891232132 | pt_BR |
dc.contributor.referee2 | Lima, Maria Adriana Vidigal de | - |
dc.contributor.referee2Lattes | http://lattes.cnpq.br/0532686872124118 | pt_BR |
dc.description.degreename | Trabalho de Conclusão de Curso (Graduação) | pt_BR |
dc.description.resumo | O ensino nunca foi algo imutável, com o passar dos anos professores das mais diversas localidades buscam aprimorar a maneira com que o conhecimento é transmitido aos alunos, isso ocorre devido ao fato de que os estudantes aprendem de maneira diferente, visto que cada indivíduo possui características distintas. Dessa forma, com o avanço da tecnologia, várias alternativas surgiram e uma de grande importância é o reconhecimento de emoções através da voz, pois caso um sistema seja capaz de extrair informações da voz a ponto de saber a emoção que uma pessoa está sentindo, tais informações poderiam ser usadas para mudar o comportamento de uma plataforma de ensino, de tal forma que esta se adeque às necessidades do usuário. O objetivo deste trabalho é a criação de uma aplicação web capaz de classiĄcar emoções através da voz que posteriormente poderá ser utilizada para aprimorar uma plataforma de ensino já existente, como por exemplo a plataforma Moodle. Foram utilizadas duas bases de dados: uma em Alemão Berlin Database of Emotional Speech (EmoDB) e a outra em Inglês The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS). A primeira contém as seguintes emoções: Raiva, Tédio, Nojo, Medo, Felicidade, Tristeza e Neutra; enquanto a segunda é composta por: Raiva, Calma, Nojo, Medo, Felicidade, Tristeza, Neutra e Surpresa. Para os testes foram analisados dois algoritmos de classiĄcação: J48 e SMO. Os resultados obtidos mostram que o SMO obteve melhor desempenho. Para a base RAVDESS o melhor resultado, utilizando SMO, apresentou acurácia de 79.30%, enquanto para a base EmoDB a acurácia foi de 87.47%. Por Ąm, foi desenvolvida a aplicação web capaz de gravar a voz e classiĄcar a emoção do áudio gravado, que poderá ser facilmente integrada a um ambiente virtual de aprendizagem posteriormente. | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.course | Ciência da Computação | pt_BR |
dc.sizeorduration | 49 | pt_BR |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | pt_BR |
Appears in Collections: | TCC - Ciência da Computação |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
ReconhecimentoEmocaoVoz.pdf | TCC | 6.43 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.