Use este identificador para citar ou linkar para este item: https://repositorio.ufu.br/handle/123456789/45128
ORCID:  http://orcid.org/0000-0001-9271-5318
Tipo do documento: Tese
Tipo de acesso: Acesso Aberto
Título: Transformer-based automatic weed segmentation in multispectral UAV imagery
Título(s) alternativo(s): Transformer-Based Automatic Weed Segmentation in Multispectral UAV Imagery
Autor(es): Dias Junior, Jocival Dantas
Primeiro orientador: Backes, André Ricardo
Primeiro coorientador: Escarpinati, Maurício Cunha
Primeiro membro da banca: Travençolo, Bruno Augusto Nassif
Segundo membro da banca: Ferrari, Ricardo José
Terceiro membro da banca: Nascimento, Marcelo Zanchetta do
Quarto membro da banca: Casanova, Dalcimar
Resumo: O manejo inadequado de plantas daninhas causa perdas anuais significativas à agricultura brasileira, com estimativas que alcançam bilhões de reais. Dada a importância vital da agricultura na economia do Brasil, o manejo eficiente dessas plantas é essencial. Nos últimos anos, os avanços tecnológicos, como o uso de sensores multiespectrais e hiperespectrais acoplados a Veículos Aéreos Não Tripulados (VANTs), aprimoraram as estratégias de manejo de plantas daninhas, possibilitando monitoramento e tomada de decisão precisos. Contudo, o grande desafio no desenvolvimento de sistemas automáticos de manejo de plantas daninhas está em segmentá-las corretamente das culturas. Essa tarefa é intrinsecamente complexa devido a diversos fatores, como a similaridade fenotípica entre culturas e plantas daninhas, oclusões, sombras, variações nas condições climáticas, diferenças nos estágios de crescimento das plantas e inconsistências durante a captura de imagens por VANTs, incluindo borrões de movimento e ruídos. Este trabalho propõe uma nova abordagem de segmentação baseada em vision transformers, utilizando índices de vegetação e espaços de cor alternativos para alcançar uma segmentação precisa de plantas daninhas em diversos cenários e datasets. A metodologia proposta integra informações espectrais, espaciais e contextuais por meio de estratégias de fusão inicial e tardia, aprimorando significativamente a precisão da segmentação. Os resultados experimentais demonstram a superioridade da abordagem em relação ao estado da arte. No conjunto de dados Sugarcane e RedEdge, estratégias de fusão tardia alcançaram um F1-score de 0,840 e 0,857 respectivamente. Para o desafiador conjunto de dados Sequoia, a metodologia alcançou um F1-score de 0,736, destacando sua robustez em cenários agrícolas complexos.
Abstract: Weed mismanagement causes significant annual losses to Brazilian agriculture, with some estimates reaching billions of reais. Given the vital role agriculture plays in Brazil's economy, efficient weed management is essential. Over the years, advances in technology, such as the use of multispectral and hyperspectral sensors coupled with Unmanned Aerial Vehicles (UAVs), have enhanced weed management strategies, enabling precise monitoring and decision-making. However, the critical challenge in developing automated weed management systems lies in accurately segmenting weeds from crops. This task is inherently complex due to various factors, such as the phenotypic similarity between weeds and crops, occlusions, shadows, variations in weather conditions, differences in plant growth stages, and image capture inconsistencies during UAV flights, including motion blur and noise. This research proposes a novel segmentation framework based on vision transformers architectures, leveraging vegetation indices and alternative color spaces to achieve precise weed segmentation across diverse scenarios and datasets. The proposed methodology integrates spectral, spatial, and contextual information using early and late fusion strategies, significantly enhancing segmentation accuracy. Experimental results demonstrate the superiority of the approach compared to state-of-the-art methods. On the Sugarcane and RedEdge datasets, late fusion strategies achieved F1-scores of 0.840 and 0.857, respectively. For the challenging Sequoia dataset, the methodology achieved an F1-score of 0.736, highlighting its robustness in complex agricultural scenarios.
Palavras-chave: Computação
Transformers
Aprendizado Profundo
Plantas Infestantes
Agricultura de Precisão
Índices de Vegetação
Weed Segmentation
Transformer Models
Precision Agriculture
Vegetation Indices
Multispectral Imaging
UAV-Based Monitoring
Área(s) do CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Assunto: Computação
Idioma: eng
País: Brasil
Editora: Universidade Federal de Uberlândia
Programa: Programa de Pós-graduação em Ciência da Computação
Referência: DIAS JUNIOR, Jocival Dantas. Transformer-Based Automatic Weed Segmentation in Multispectral UAV Imagery. 2025. 95 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal de Uberlândia, Uberlândia, 2025. DOI http://doi.org/10.14393/ufu.te.2025.146.
Identificador do documento: http://doi.org/10.14393/ufu.te.2025.146
URI: https://repositorio.ufu.br/handle/123456789/45128
Data de defesa: 28-Fev-2025
Objetivos de Desenvolvimento Sustentável (ODS): ODS::ODS 2. Fome zero e agricultura sustentável - Acabar com a fome, alcançar a segurança alimentar e melhoria da nutrição e promover a agricultura sustentável.
Aparece nas coleções:TESE - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Transformer-BasedAutomaticWeed.pdfTese33.18 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons