Autor: Joelson Sartori Junior (Currículo Lattes)
Resumo
Esta dissertação propõe aprimoramentos nos modelos Transformers e Visual Transformer ao incorporar funções de (pré-)agregação baseadas nas integrais de Choquet, Integral de Sugeno e dcc-integrals no mecanismo de autoatenção. Essas funções, fundamentadas no conceito de capacidade fuzzy, substituem a agregação matricial tradicional por operações mais sofisticadas, ampliando a capacidade dos modelos de capturar dependências complexas em dados de alta dimensionalidade. Três abordagens foram desenvolvidas: uma formulação adaptada da integral de Choquet, generalizações da Integral de Sugeno pelas funções FG-funcionais e pelas dcc-integrais, que combinam cópulas e funções de dissimilaridade. Os experimentos, realizados em conjuntos de dados como cifar-10, cifar-100, caltech101 e coco, demonstraram que as propostas alcançaram desempenho comparável ao mecanismo tradicional, com melhorias significativas em generalização e robustez. Este estudo contribui para o avanço teórico e prático de modelos de atenção, oferecendo uma base sólida para o desenvolvimento de arquiteturas mais adaptáveis e eficientes no aprendizado de máquina.
Palavras-chave: Redes Neurais; Transformers; Funções de agregação; Integral de Choquet; Integral de Sugeno