Use este identificador para citar ou linkar para este item:
https://repositorio.ufu.br/handle/123456789/45128| ORCID: | http://orcid.org/0000-0001-9271-5318 |
| Tipo do documento: | Tese |
| Tipo de acesso: | Acesso Aberto |
| Título: | Transformer-based automatic weed segmentation in multispectral UAV imagery |
| Título(s) alternativo(s): | Transformer-Based Automatic Weed Segmentation in Multispectral UAV Imagery |
| Autor(es): | Dias Junior, Jocival Dantas |
| Primeiro orientador: | Backes, André Ricardo |
| Primeiro coorientador: | Escarpinati, Maurício Cunha |
| Primeiro membro da banca: | Travençolo, Bruno Augusto Nassif |
| Segundo membro da banca: | Ferrari, Ricardo José |
| Terceiro membro da banca: | Nascimento, Marcelo Zanchetta do |
| Quarto membro da banca: | Casanova, Dalcimar |
| Resumo: | O manejo inadequado de plantas daninhas causa perdas anuais significativas à agricultura brasileira, com estimativas que alcançam bilhões de reais. Dada a importância vital da agricultura na economia do Brasil, o manejo eficiente dessas plantas é essencial. Nos últimos anos, os avanços tecnológicos, como o uso de sensores multiespectrais e hiperespectrais acoplados a Veículos Aéreos Não Tripulados (VANTs), aprimoraram as estratégias de manejo de plantas daninhas, possibilitando monitoramento e tomada de decisão precisos. Contudo, o grande desafio no desenvolvimento de sistemas automáticos de manejo de plantas daninhas está em segmentá-las corretamente das culturas. Essa tarefa é intrinsecamente complexa devido a diversos fatores, como a similaridade fenotípica entre culturas e plantas daninhas, oclusões, sombras, variações nas condições climáticas, diferenças nos estágios de crescimento das plantas e inconsistências durante a captura de imagens por VANTs, incluindo borrões de movimento e ruídos. Este trabalho propõe uma nova abordagem de segmentação baseada em vision transformers, utilizando índices de vegetação e espaços de cor alternativos para alcançar uma segmentação precisa de plantas daninhas em diversos cenários e datasets. A metodologia proposta integra informações espectrais, espaciais e contextuais por meio de estratégias de fusão inicial e tardia, aprimorando significativamente a precisão da segmentação. Os resultados experimentais demonstram a superioridade da abordagem em relação ao estado da arte. No conjunto de dados Sugarcane e RedEdge, estratégias de fusão tardia alcançaram um F1-score de 0,840 e 0,857 respectivamente. Para o desafiador conjunto de dados Sequoia, a metodologia alcançou um F1-score de 0,736, destacando sua robustez em cenários agrícolas complexos. |
| Abstract: | Weed mismanagement causes significant annual losses to Brazilian agriculture, with some estimates reaching billions of reais. Given the vital role agriculture plays in Brazil's economy, efficient weed management is essential. Over the years, advances in technology, such as the use of multispectral and hyperspectral sensors coupled with Unmanned Aerial Vehicles (UAVs), have enhanced weed management strategies, enabling precise monitoring and decision-making. However, the critical challenge in developing automated weed management systems lies in accurately segmenting weeds from crops. This task is inherently complex due to various factors, such as the phenotypic similarity between weeds and crops, occlusions, shadows, variations in weather conditions, differences in plant growth stages, and image capture inconsistencies during UAV flights, including motion blur and noise. This research proposes a novel segmentation framework based on vision transformers architectures, leveraging vegetation indices and alternative color spaces to achieve precise weed segmentation across diverse scenarios and datasets. The proposed methodology integrates spectral, spatial, and contextual information using early and late fusion strategies, significantly enhancing segmentation accuracy. Experimental results demonstrate the superiority of the approach compared to state-of-the-art methods. On the Sugarcane and RedEdge datasets, late fusion strategies achieved F1-scores of 0.840 and 0.857, respectively. For the challenging Sequoia dataset, the methodology achieved an F1-score of 0.736, highlighting its robustness in complex agricultural scenarios. |
| Palavras-chave: | Computação Transformers Aprendizado Profundo Plantas Infestantes Agricultura de Precisão Índices de Vegetação Weed Segmentation Transformer Models Precision Agriculture Vegetation Indices Multispectral Imaging UAV-Based Monitoring |
| Área(s) do CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Assunto: | Computação |
| Idioma: | eng |
| País: | Brasil |
| Editora: | Universidade Federal de Uberlândia |
| Programa: | Programa de Pós-graduação em Ciência da Computação |
| Referência: | DIAS JUNIOR, Jocival Dantas. Transformer-Based Automatic Weed Segmentation in Multispectral UAV Imagery. 2025. 95 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal de Uberlândia, Uberlândia, 2025. DOI http://doi.org/10.14393/ufu.te.2025.146. |
| Identificador do documento: | http://doi.org/10.14393/ufu.te.2025.146 |
| URI: | https://repositorio.ufu.br/handle/123456789/45128 |
| Data de defesa: | 28-Fev-2025 |
| Objetivos de Desenvolvimento Sustentável (ODS): | ODS::ODS 2. Fome zero e agricultura sustentável - Acabar com a fome, alcançar a segurança alimentar e melhoria da nutrição e promover a agricultura sustentável. |
| Aparece nas coleções: | TESE - Ciência da Computação |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Transformer-BasedAutomaticWeed.pdf | Tese | 33.18 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons
