Please use this identifier to cite or link to this item:
https://repositorio.ufu.br/handle/123456789/14475
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.creator | Pereira, Will Roger | - |
dc.date.accessioned | 2016-06-22T18:38:43Z | - |
dc.date.available | 2012-04-09 | - |
dc.date.available | 2016-06-22T18:38:43Z | - |
dc.date.issued | 2012-02-07 | - |
dc.identifier.citation | PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21 | por |
dc.identifier.uri | https://repositorio.ufu.br/handle/123456789/14475 | - |
dc.description.abstract | This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared. | eng |
dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior | - |
dc.format | application/pdf | por |
dc.language | por | por |
dc.publisher | Universidade Federal de Uberlândia | por |
dc.rights | Acesso Aberto | por |
dc.subject | Redes neurais (Computação) | por |
dc.subject | Redes neurais artificiais | por |
dc.subject | Gradiente descendente | por |
dc.subject | Perturbação do peso | por |
dc.subject | Scheme | por |
dc.subject | Paralelismo | por |
dc.subject | Artificial neural networks | eng |
dc.subject | Gradient descen | eng |
dc.subject | Weigh | eng |
dc.subject | Perturbation | eng |
dc.subject | Scheme | eng |
dc.subject | Paralelism | eng |
dc.title | Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada | por |
dc.type | Dissertação | por |
dc.contributor.advisor1 | Lima, Luciano Vieira | - |
dc.contributor.advisor1Lattes | http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4707793J5 | por |
dc.contributor.referee1 | Pereira, Antônio Eduardo Costa | - |
dc.contributor.referee1Lattes | http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4703666E8 | por |
dc.contributor.referee2 | Yamanaka, Keiji | - |
dc.contributor.referee2Lattes | http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798494D8 | por |
dc.contributor.referee3 | Siqueira Neto, José Lopes de | - |
dc.creator.Lattes | http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4335909U1 | por |
dc.description.degreename | Mestre em Ciências | por |
dc.description.resumo | Este trabalho compara redes neurais feedforward clássicas com um algoritmo que permite explorar o paralelismo presente em diversas máquinas disponíveis. O esquema de treinamento discutido aqui não depende da topologia da RNA, portanto pode ser uma melhor representação das redes neurais naturais produzidas ao longo da evolução animal. Porém, por ser uma estratégia que não utiliza derivada da função de ativação, é mais rústica, o que pode resultar em uma convergência mais lenta quando comparados com algoritmos que dependem de uma topologia, como o Error Backpropagation. É esperada uma melhora na velocidade da convergência com a utilização da computação paralela. No entanto, em trabalhos futuros, o paralelismo em máquinas com muitos núcleos de processamento pode mais do que compensar esta baixa velocidade, uma vez que os pesos são ajustados de forma independente. Serão analisados e comparados os comportamentos do método mais popular de treinamento de redes neurais articiais feedforward na atualidade, o Error Backpropagation, e o algoritmo abordado neste trabalho, tanto no modo sequencial quanto paralelo. | por |
dc.publisher.country | BR | por |
dc.publisher.program | Programa de Pós-graduação em Engenharia Elétrica | por |
dc.subject.cnpq | CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA | por |
dc.publisher.department | Engenharias | por |
dc.publisher.initials | UFU | por |
dc.identifier.doi | https://doi.org/10.14393/ufu.di.2012.21 | - |
dc.orcid.putcode | 81755051 | - |
dc.crossref.doibatchid | efd01672-63c8-4c15-b279-3d6f42f6b10e | - |
Appears in Collections: | DISSERTAÇÃO - Engenharia Elétrica |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.