Please use this identifier to cite or link to this item: https://repositorio.ufu.br/handle/123456789/45044
ORCID:  http://orcid.org/0009-0004-1653-8371
Document type: Dissertação
Access type: Acesso Aberto
Attribution-NonCommercial-ShareAlike 3.0 United States
Title: Análise do impacto de ataques adversários na detecção de intrusão em sistemas ciberfísicos
Alternate title (s): Analysis of the Impact of Adversarial Attacks on Intrusion Detection in Cyber-Physical Systems
Author: Silva Junior, Antonio Carlos Campos da
First Advisor: Miani, Rodrigo Sanches
First coorientator: Cattelan, Renan Gonçalves
First member of the Committee: Paiva, Elaine Ribeiro de Faria
Second member of the Committee: Kazienko, Juliano Fontoura
Summary: Sistemas ciberfísicos, do inglês Cyber-Physical Systems (CPSs), integram ecossistemas tecnológicos complexos, conectando computação, redes e processos físicos por meio de dispositivos interligados. Garantir a segurança da informação nesses sistemas é essencial, e algoritmos de aprendizado de máquina têm sido amplamente empregados para treinar Sistemas de Detecção de Intrusão (IDSs, do inglês Intrusion Detection Systems) baseados em anomalias, com o objetivo de proteger esses ecossistemas. Este estudo avalia o impacto de ataques adversários em algoritmos de aprendizado de máquina aplicados a IDSs baseados em anomalias, utilizando dois conjuntos de dados: Power System Smart Grid Monitoring Power e Ereno IEC-61850 Intrusion Dataset. A pesquisa aborda tanto a abordagem de classificador individual, do inglês single classifier, quanto a de comitê de classificadores, do inglês ensemble classifier, considerando dois tipos de ataques adversários: o Fast Gradient Sign Method (FGSM) e o Jacobian-based Saliency Map Attack (JSMA). Foram realizadas análises abrangentes, incluindo: comparação entre os ataques FGSM e JSMA, análise do impacto entre as classes de algoritmos de aprendizado de máquina (individual x comitê), efeitos da diminuição do tamanho do conjunto de treino roubado e impacto da inserção de amostras adversárias no conjunto de treino. Os resultados indicam que o impacto dos ataques adversários varia de acordo com o tipo de classificador e também com o conjunto de dados usado. Além disso, os algoritmos do grupo ensemble classifier demonstraram, de maneira geral, maior resistência aos ataques adversários. Observou-se também que a diminuição do tamanho do conjunto de treino roubado influenciou mais intensamente o impacto dos ataques FGSM em relação ao desempenho de linha de base dos classificadores. Em contrapartida, em determinados cenários, a inserção de amostras adversárias no conjunto de treino resultou em melhorias no desempenho dos classificadores. Em síntese, os resultados encontrados evidenciam que o ataque FGSM possui maior impacto negativo no desempenho dos IDSs. Ademais, os algoritmos do tipo comitê de classificadores se mostraram mais robustos contra ataques adversários quando comparados aos algoritmos do tipo classificador individual, consolidando sua eficácia em IDSs para CPSs.
Abstract: Cyber-Physical Systems (CPSs) are complex technological ecosystems that integrate computing, networking, and physical processes through interconnected devices. Ensuring information security in these systems is critical, and machine learning algorithms are widely employed to train anomaly-based Intrusion Detection Systems (IDSs) for their protection. This study evaluates the impact of adversarial attacks on machine learning algorithms applied to anomaly-based IDSs using two datasets: Power System Smart Grid Monitoring Power and Ereno IEC-61850 Intrusion Dataset. The research investigates both single classifier and ensemble classifier approaches, focusing on two adversarial attacks: the Fast Gradient Sign Method (FGSM) and the Jacobian-based Saliency Map Attack (JSMA). Comprehensive analyses were conducted, including comparisons between FGSM and JSMA attacks, assessments of single classifier versus ensemble classifier performance, evaluations of the effect of reducing the stolen training set size, and the impact of incorporating adversarial samples into the training set. The findings reveal that the impact of adversarial attacks varies with the classifier type and dataset. Notably, ensemble classifiers generally exhibited greater resistance to adversarial attacks. A significant degradation in baseline performance was observed for FGSM attacks as the stolen training set size decreased. Conversely, in some scenarios, incorporating adversarial samples into the training set enhanced classifier performance. In summary, FGSM attacks were found to have a more pronounced negative impact on IDS performance. Additionally, ensemble classifiers demonstrated superior robustness to adversarial attacks compared to single classifiers, highlighting their effectiveness in IDSs for CPSs.
Keywords: Sistemas Ciber-Físicos (CPSs)
Sistemas de Detecção de Intrusão (IDSs)
Aprendizado de Máquina (AM)
Classificador individual
Comitê de classificadores
Ataques Adversários
Single Classifier
Ensemble Classifier
Fast Gradient Sign Method (FGSM)
Jacobian-based Saliency Map Attack (JSMA)
Area (s) of CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Language: por
Country: Brasil
Publisher: Universidade Federal de Uberlândia
Program: Programa de Pós-graduação em Ciência da Computação
Quote: SILVA JUNIOR, Antonio Carlos Campos da. Análise do impacto de ataques adversários na detecção de intrusão em sistemas ciberfísicos. 2024. 93 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal de Uberlândia, Uberlândia, 2024. DOI http://doi.org/10.14393/ufu.di.2025.5044.
Document identifier: http://doi.org/10.14393/ufu.di.2025.5044
URI: https://repositorio.ufu.br/handle/123456789/45044
Date of defense: 20-Dec-2024
Sustainable Development Goals SDGs: ODS::ODS 9. Indústria, Inovação e infraestrutura - Construir infraestrutura resiliente, promover a industrialização inclusiva e sustentável, e fomentar a inovação.
Appears in Collections:DISSERTAÇÃO - Ciência da Computação

Files in This Item:
File Description SizeFormat 
AnáliseImpactoAtaques.pdfDissertação9.45 MBAdobe PDFThumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons