Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufu.br/handle/123456789/47020
Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.creatorCurtolo, Brenno Cavalcanti-
dc.date.accessioned2025-09-25T14:45:21Z-
dc.date.available2025-09-25T14:45:21Z-
dc.date.issued2025-09-19-
dc.identifier.citationCURTOLO, Brenno Cavalcanti. Otimização do Vision Transformer no CIFAR-100: avaliação em ambientes computacionais distintos e estratégias de aprendizado. 2025. 61 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) – Universidade Federal de Uberlândia, Uberlândia, 2025.pt_BR
dc.identifier.urihttps://repositorio.ufu.br/handle/123456789/47020-
dc.description.abstractThe main objective of this work is to study and analyze, through experiments, the functioning of the Vision Transformer (ViT) model, a deep learning architecture originally proposed for computer vision tasks and, in this project, applied to the processing and classification of images from the CIFAR-100 dataset. In this context, the proposal seeks to reproduce and expand upon the experiments of a baseline study in order to evaluate strategies that sustain the best possible performance even under limited-resource scenarios. Thus, during the development of this work, different execution configurations and optimization techniques were explored, including dynamic learning rate policies, hyperparameter adjustments, and regularization methods, with the goal of improving accuracy, accelerating convergence, and enhancing the model’s generalization capacity. In doing so, this study contributes by systematizing choices that enable training the ViT effectively without the need for pre-training on massive datasets, bringing academic practice closer to the real conditions of many research contexts.pt_BR
dc.description.sponsorshipUFU - Universidade Federal de Uberlândiapt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Uberlândiapt_BR
dc.rightsAcesso Abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
dc.subjectVision Transformerpt_BR
dc.subjectCIFAR-100pt_BR
dc.subjectAprendizado profundopt_BR
dc.subjectLearning ratept_BR
dc.subjectOtimização de hiperparâmetrospt_BR
dc.subjectRegularizaçãopt_BR
dc.subjectDeep learningpt_BR
dc.subjectTaxa de aprendizadopt_BR
dc.titleOtimização do vision transformer no CIFAR-100: avaliação em ambientes computacionais distintos e estratégias de aprendizadopt_BR
dc.title.alternativeOptimization of vision transformer on CIFAR-100: evaluation in distinct computational environments and learning strategiespt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1Julia, Rita Maria da Silva-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8032993126633250pt_BR
dc.contributor.referee1Lima, Maria Adriana Vidigal de-
dc.contributor.referee1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4792077U2pt_BR
dc.contributor.referee2Nascimento, Marcelo Zanchetta do-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5800175874658088pt_BR
dc.description.degreenameTrabalho de Conclusão de Curso (Graduação)pt_BR
dc.description.resumoO presente trabalho tem por objetivo principal estudar e analisar, por meio de experimentos, o funcionamento do modelo Vision Transformer (ViT), uma arquitetura de aprendizado profundo originalmente proposta para tarefas de visão computacional e que, neste projeto, foi aplicada ao processamento e classificação de imagens do conjunto de dados CIFAR-100. Neste contexto, a proposta busca reproduzir e expandir os experimentos de um trabalho base de modo a avaliar estratégias que mantenham o melhor nível de desempenho possível mesmo em cenários de recursos limitados. Assim, no desenvolvimento deste trabalho, foram exploradas diferentes configurações de execução e técnicas de otimização, incluindo políticas dinâmicas de learning rate, ajustes de hiperparâmetros e métodos de regularização, com o objetivo de melhorar a acurácia, acelerar a convergência e ampliar a capacidade de generalização do modelo. Com isso, este estudo contribui ao sistematizar escolhas que permitem treinar o ViT de forma eficaz sem necessidade de pré-treinamento em bases massivas, aproximando a prática acadêmica das condições reais de muitos contextos de pesquisa.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.courseCiência da Computaçãopt_BR
dc.sizeorduration61pt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO::ARQUITETURA DE SISTEMAS DE COMPUTACAOpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::LINGUAGENS DE PROGRAMACAOpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::SISTEMAS DE INFORMACAOpt_BR
dc.orcid.putcode192797633-
Aparece en las colecciones:TCC - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción TamañoFormato 
OtimizaçãoVisionTransformer.pdfTCC15.04 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons