ABCDEFG
1
TÍTULOAUTOR / AUTORA e LINKPALAVRAS-CHAVESRESUMOORIENTAÇÃOTIPO
2
2019APLICAÇÃO DE TÉCNICAS DE MINERAÇÃO DE DADOS EDUCACIONAIS PARA PREDIZER EVASÃO ESCOLAR NO INSTITUTO FEDERAL DA PARAÍBAVICTOR REGIS LYRA BESERRA DA SILVAEvasão Escolar; Mineração de Dados Educacionais; Predição; Aprendizagem de Máquina.A evasão escolar é um problema que preocupa as instituições de ensino no Brasil. O fenômeno tem trazido consequências negativas não apenas para os estudantes, mas também para a nação brasileira. Percebendo isso, tem-se o seguinte questionamento: Pode uma ferramenta ou técnica prever alunos propensos ao abandono escolar? Neste trabalho são apresentados modelos de predição da evasão escolar utilizando técnicas de mineração de dados apoiado pela metodolo- gia CRISP-DM. Ao contrário de outros trabalhos de aprendizagem de máquina nossa abordagem utiliza várias técnicas para tratar valores ausentes e compara dois tipos de situações: um mo- delo de predição com alunos de cursos do integrado (Ensino Médio Concomitante a um Curso Técnico) e outro com as demais modalidades (Subsequente, Graduação, Pós-Graduação Lato Sensu e Mestrado). Nossos experimentos foram realizados com dados de estudantes de cursos presenciais do Instituto Federal de Educação Ciência e Tecnologia da Paraíba (IFPB) do campus João Pessoa. Os resultados apontam uma acurácia de 94% nos cursos do integrado e 88% nos cursos das demais modalidades.VANILSON ANDRE DE ARRUDA BURRÉGIO
3
2019SISTEMA INTELIGENTE BASEADO EM MACHINE LEARNING PARA PREDIÇÃO DE GRUPO DE RISCO A EVASÃO DISCENTEKAMILLA KAREN SOUSA DA SILVASistema inteligente; Evasão; NBTree; Naive Bayes; Machine Learning.A evasão é um problema comum e persistente nas instituições de ensino do país, atingindo todos os níveis e modalidades de ensino e causando prejuízos sociais, econômicos, políticos, acadêmicos e financeiros a todos os envolvidos. Desta forma, torna-se necessário o desenvolvimento de métodos e ferramentas para predição, avaliação e acompanhamento de estudantes em risco de evasão, permitindo aos gestores educacionais criarem ações e medidas mais eficientes e direcionadas no intuito de minimizar a situação. Esta pesquisa teve por objetivo auxiliar na resolução deste problema a partir do desenvolvimento de um sistema inteligente capaz de prever a probabilidade de evasão dos alunos do ensino técnico e superior. O estudo foi quantitativo, utilizando como fonte de dados informações do sistema de gestão e controle acadêmico oficial do IFCE para analise das probabilidades da evasão através dos algoritmos Naive Bayes e NBTRee. Os resultados do trabalho obtiveram um índice de acerto de 86,4% com o algoritmo Naive Bayes e 92,7% com o NBTree, demonstrando a precisão do sistemaFELIPE SILVA FERRAZ
4
2022SISTEMA DE ANÁLISE PREDITIVA DA EVASÃO DISCENTE UTILIZANDO MÉTODOS DE APRENDIZADO DE MÁQUINAMARLON ANDERSON CESAR DA SILVAEvasão Discente; Aprendizado de Máquina; Mineração de Dados Educacionais.Altas taxas de evasão são um problema sério e bastante comum em vários países do mundo, seja em ambientes de ensino-aprendizagem tradicionais seja em ambientes de e-learning, tanto na educação privada quanto pública. Diante disso, torna-se necessário o desenvolvimento de métodos, técnicas e ferramentas para predição, avaliação e acompanhamento de estudantes em risco de evasão, permitindo aos gestores educacionais tomarem decisões mais precisas e criarem ações e medidas mais eficientes no intuito de minimizar a situação. Além do mais, sistemas de detecção de evasão escolar, de forma precoce, têm adquirido mais destaque, principalmente, quanto à possibilidade de serem um arcabouço para a elaboração de novas políticas públicas e também auxiliar no melhor entendimento quanto às possíveis causas da evasão. Esta pesquisa teve por objetivo auxiliar na resolução desse problema a partir do desenvolvimento de um sistema de análise inteligente capaz de prever a probabilidade de evasão dos alunos do ensino Técnico. O estudo foi quantitativo, utilizando como fonte de dados informações do sistema de gestão e controle acadêmico oficial do IFPE para análise das probabilidades da evasão através dos algoritmos da Regressão logística, Naive Bayes, Random Forest e XGBoost. Os resultados do trabalho obtiveram um índice de acerto entre 30 % a 80%, destacando -se o algoritmo XGBoost com maior acurácia.ANDRÉ CÂMARA ALVES DO NASCIMENTO
5
2024RESOLVENDO O PROBLEMA DE ATRIBUIÇÃO DE IDENTIFICADORES DE CÉLULAS 5G ATRAVÉS DA FORMULAÇÃO QUBO PARA COMPUTADORES QUÂNTICOSADRIANO DE ARAÚJO BORGESComputação quântica; Otimização combinatória; Formulação QUBO; Atri- buição de PCI; 5G.A atribuição de um identificador, PCI, para cada célula nas redes de celulares é uma atividade de otimização rotineira, e requer avaliação para todas as células próximas, com o objetivo de minimizar as interferências entre elas. Essas interferências acontecem quando células vizinhas apresentam o mesmo PCI, e podem ser classificadas como colisão, confusão ou interferência mod q. Para esse problema, a literatura apresenta soluções baseadas em heurística, algoritmos genéticos e algoritmo de otimização por enxame de partículas, mas todas com alto custo computacional. Como abordagem alternativa, e visando apresentar técnicas mais eficientes, esse trabalho propõe uma solução do problema através do modelo QUBO, e sua aplicação em computadores quânticos voltados para esse tipo de otimização. Assim, este trabalho apresenta um modelo QUBO para o problema de atribuição de PCI em redes 5G e realiza experimentos utilizando algoritmos clássicos e quânticos, aplicando informações reais de localização das torres celulares coletadas a partir do site da ANATEL. Foram realizados experimentos utilizando métodos clássicos, como o exaustivo por força bruta e a heurística SteepestDescent, bem como o método híbrido CQM, executado no computador quântico. É possível concluir que, nos cenários testados, a utilização do computador quântico gera soluções corretas quando comparadas com o método exaustivo, além de apresentar tempos de execução incomparavelmente menores.ERICO SOUZA TEIXEIRADISSERTAÇÃO
6
2023UMA ABORDAGEM EM APRENDIZADO DE MÁQUINA PARA DETECÇÃO DE MALWARES NO CAMPO DA SEGURANÇA CIBERNÉTICAADRIANO NOVAIS MORAISVírus; Inteligência artificial; Aprendizado de Máquina, Malwares; Antivírus; ZeroDay; Sistema Imunológico Artificial; Forense Computacional, Análise Dinâmica.As ações criminosas cibernéticas são realizadas em sua grande parte por softwares maliciosos denominados malwares. Malware é um programa de computador projetado para danificar, interromper, roubar ou infligir alguma outra ação “ruim” ou ilegítima em dados, hosts ou redes. No campo da segurança cibernética, os Antivírus ainda são os meios mais utilizados no combate aos malwares. Portanto, o presente trabalho construiu um software Antivírus da Próxima Geração, utilizando aprendizado de máquina, redes neurais, especializado na detecção de malwares Ransomware, visto que os Antivírus disponíveis no mercado não possuem um desempenho satisfatório com relação a esse tipo de malwares. O Antivírus proposto monitora e pondera, estatisticamente, 672 comportamentos dos arquivos suspeitos quando executados em um ambiente controlado. As características e comportamentos monitorados via análise dinâmica foram utilizados como parâmetros de entradas para os algoritmos de aprendizado de máquina, que classificam em benignos ou malignos. Como resultado, a Rede Neural Convolucional atingiu 93,72%, o Long short-term memory (LSTM) e Perceptron Multi-Camadas (MLP), 95,94% e 95,44%, respectivamente. Com relação ao classificador Extreme Learning Machine (ELM), foram utilizadas diferentes configurações de Kernel com objetivo de obter os melhores resultados, e o resultado médio da melhor configuração, Kernel dilatação, foi de 91.72%, na diferenciação entre arquivos malignos e benignos. Ao contrário dos softwares Antivírus atualmente comercializados, que são reativos, baseados em blocklist de assinaturas e análise estática, o Antivírus apresentado detecta malwares de forma preventiva, fazendo uso de aprendizado de máquina, redes neurais, e análise dinâmica.RODRIGO CARNEIRO LEÃO VIEIRA DA CUNHADISSERTAÇÃO
7
2023APRENDIZADO DE MÁQUINA APLICADO A SCORE DE CRÉDITO: ANÁLISE DE DESEMPENHO DE ALGORITMOS DE CLASSIFICAÇÃO EM POPULAÇÃO DE BAIXA RENDA OU DESBANCARIZADAALDÉRYCK FÉLIX DE ALBUQUERQUEAprendizado de Máquina; Score de Crédito; Algoritmos deClassificação; Baixa Renda; Desbancarização.Os modelos de Score de Crédito, Pontuação de Crédito ou Credit Scoring, são modelos estatísticos que avaliam o risco de crédito de tomadores de empréstimos considerando uma série de variáveis, como renda, emprego, idade, nível de escolaridade, estado civil, histórico de crédito, entre outras... Essas variáveis são utilizadas para criar uma pontuação de crédito, que reflete a probabilidade de inadimplência do indivíduo ou empresa. Neste trabalho o termo baixa-renda faz referência a população que ganha entre 0,78 e 1,72 salários mínimos, de acordo com o último relatório de Critério de Classificação Econômica Brasil (CDC, 2021). A população de baixa renda ou desbancarizada é frequentemente sub-atendida no mercado de crédito devido à falta de histórico de crédito e informações financeiras. Isso pode limitar suas oportunidades de negócios e crescimento financeiro, resultando em maior exclusão financeira e dificuldade em sua ascensão econômica e social. Também observou-se uma lacuna em publicação científica que relacione desenvolvimentos de modelos de aprendizado de máquina relacionados a Score de Créditos específicos para esse nicho. Nesse sentido, é importante realizar estudos de Score de Crédito com enfoque para essa população, a fim de avaliar o risco de crédito de maneira mais justa e precisa. Das etapas para construção de um modelo de Score de Crédito, o presente estudo foca na etapa de escolha do algoritmos de classificação e busca encontrar os mais adequados para´classificação de crédito em população de baixa renda ou desbancarizada. Este processo se dá através do exame dos níveis de desempenho de diferentes algoritmos de classificação supervisionados. Foram analisados os algoritmos Random Forest, XGBoost, LightGBM, Regressão Logística, SVM e AdaBoost, através das métricas Acurácia, Brier Score, Precisão, Recall, F Measure, AUC, KS Test, com seu treinamento realizado em 356.827 instâncias e testados em 39.647 instâncias numa base com 24,5% de clientes inadimplentes em processo de Validação Cruzada de 10 dobras. Foram encontradas evidências de que o algoritmo Random Forest apresenta um melhor desempenho tanto em maximização de resultado financeiro, como na capacidade de classificação com melhores resultados nas métricas AUC (71,1%) e KS Test (31%), e também na capacidade de generalização por apresentar o menor desvio padrão nessas duas métricas. Seu resultado financeiro maximizado por ajustes no limiar de probabilidade se mostrou 16,7% mais elevado que o classificador XGBoost.RODRIGO CARNEIRO LEÃO VIEIRA DA CUNHADISSERTAÇÃO
8
2023SIMPLIFICAÇÃO AUTOMÁTICA DE TEXTOS JURÍDICOS EM PORTUGUÊS USANDO APRENDIZAGEM DE MÁQUINAALEXANDRE MARCOLINO ALVESsimplificação de texto; simplificação automática; aprendizagem de máquina; língua portuguesa; texto jurídico.A maioria das pessoas tem dificuldade na leitura e entendimento de textos jurídicos, desse modo, uma barreira na comunicação se estabelece entre o judiciário e a população. Objetivo: Realizar a simplificação automática de textos jurídicos escritos em língua portuguesa, utilizando algoritmos de aprendizagem de máquina, a fim de oferecer maior legibilidade aos textos existentes, bem como escalar a produção de textos simplificados. Método: Utilização da metodologia Cross Industry Standard Process for Data Mining (CRISP-DM) na pesquisa, usando processos iterativos e incrementais, para obter os resultados conforme cada fase. No experimento, 100 ementas retiradas dos acórdãos do Supremo Tribunal Federal (STF), e mais 100 ementas dos julgamentos do Tribunal Regional Federal da 5a Região (TRF5) foram utilizadas para gerar um conjunto de dados com textos jurídicos contendo temas, complexidades e vocabulários variados que foi usado no processo de simplificação de textos usado pelos métodos. Os textos foram analisados e passaram por um processo de identificação das sentenças existentes para separá-las em arquivos, depois disso submetê-las ao modelo de simplificação de texto, a fim de obter uma versão simplificada delas. Resultados: Os resultados foram avaliados através de métricas que foram aplicadas aos textos originais e simplificados para mensurar a legibilidade deles, ou seja, aferir a facilidade de ler e entendê-los, gerando planilhas de avaliação com os valores obtidos. Os resultados dos métodos MUSS(EN), MUSS(PT) e Transformer superaram o índice de facilidade de leitura FRE dos textos originais, deixando-os mais legíveis. Além disso, o trabalho produziu um dataset com 10.574 ementas do STF, que foi usado como base para gerar dois corpora paralelos com pares de sentenças originais e simplificadas, o primeiro com 132.879 pares e o segundo com 13.288, usados no treinamento de dois métodos que utilizam aprendizagem supervisionada. Conclusão: A contribuição do trabalho será significativa diante da imensa quantidade de textos jurídicos com vocabulário complexo e extremamente técnico, uma vez que será realizada através de um processo automático, com a utilização de métodos para avaliar algoritmos que representam o estado da arte em simplificação de textos. Embora revisões manuais sejam necessárias para analisar as simplificações produzidas e validar os textos, o esforço de reescrita manual seria muito maior e envolveria muito mais pessoas e tempo, além de ter um custo alto, e não teria a escalabilidade necessária diante da quantidade existente de textos. Dessa forma, a simplificação automática nesse contexto contribui para a economia de recursos dos órgãos.ANDRÉ CÂMARA ALVES DO NASCIMENTODISSERTAÇÃO
9
2023POTENCIALIDADES E DESAFIOS DOS MICROSSERVIÇOS: UMA REVISÃO SISTEMÁTICA DA LITERATURAALINE KETTYANE FERREIRA NUNESMicrosserviços. Migração de nuvem. Desafios.Neste trabalho será feito um estudo sobre as potencialidades e desafios enfrentados na prática da arquitetura de microsserviços, considerando que seu uso tem se intensificado nos últimos anos, acredita-se ser importante melhor compreender sobre o assunto. Apesar de muitos estudos estarem sendo realizados em relação ao uso da arquitetura de microsserviços, por meio da leitura de artigos relacionados ao assunto foram identificadas lacunas de pesquisas, gerando os seguintes questionamentos a serem respondidos: 1. Em quais situações as arquiteturas baseadas em microsserviços se mostram como de aplicação ideal? 2. Quais os principais desafios para uso de arquiteturas baseadas em microsserviços no cotidiano de uso do software? 3. Quais os principais impactos da migração de arquitetura monolítica para microsserviços, considerando a necessidade de construção de sistemas em ambientes de nuvem? 4. Como os pesquisadores têm se posicionado em relação às soluções para mitigação dos pontos negativos apresentados pela arquitetura baseada em microsserviços? Nesse contexto, este trabalho tem como objetivo geral analisar as potencialidades e desafios enfrentados na prática de softwares desenvolvidos com base em arquitetura de microsserviços por meio de uma Revisão Sistemática da Literatura. Para alcance do objetivo foi realizada uma revisão sistemática da literatura publicada sobre o assunto, utilizando como bases de dados: a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), que indexa dados de outras bases de dados nacionais e internacionais, e Scopus. Inicialmente foi definido um golden set com cinco artigos provenientes das bases CAPES e Scopus. Em seguida, as referências de cada um dos cinco artigos foram revisadas para seleção de novas publicações totalizando 30 artigos para compor esta pesquisa. Ao final pode-se concluir que a arquitetura de microsserviços é vantajosa, trazendo benefícios como a alta escalabilidade, a alta capacidade de resposta ao usuário final, a facilidade de desenvolvimento e a implantação e um tempo mínimo ou nenhum de interrupção. Contudo, embora as grandes empresas estejam aproveitando os benefícios dos microsserviços, as pequenas empresas ainda podem ter mais vantagens com uma arquitetura monolítica. No entanto, escolher entre Microsserviços e Monolítico sempre depende do seu modelo e estratégia de negócios.DIEGO TAVARES DE SOUZADISSERTAÇÃO
10
2023AVALIAÇÃO DE DIFERENTES ALGORITMOS EVOLUCIONÁRIOS MULTIOBJETIVOS PARA EVOLUÇÃO GRAMATICAL: UM ESTUDO DE CASO SOBRE A GERAÇÃO DE REDES NEURAIS CONVOLUCIONAIS EM DATASETS DE IMAGENS MÉDICASAMERSON RILEY CABRAL CHAGASevolução gramatical; rede neural convolucional; otimização multiobjetivo.A Evolução Gramatical tem sido usada para gerar Arquiteturas de Redes Neurais Convolucionais (CNNs) para se buscar resultados cada vez mais eficientes, então, este trabalho traz umaanalise de algoritmos genéticos aplicados na geralai de cnns em datasets de imagens médicas, usando diferentes algoritmos genéticos para mostrar a importância desta questão. Essa pesquisa investigou o impacto da escolha do algoritmo genético no desempenho da Evolução Gramatical utilizada em datasets de imagens médicas com o objetivo de determinar qual algoritmo é mais adequado para essa tarefa específica. Assim, foram escolhidos algoritmos genéticos com abordagens distintas e usados para construir Redes Neurais Convolucionais CNNs. Por se tratar de problemas multiobjetivos, duas funções objetivas foram consideradas na geração destas CNN,a Acurácia que é uma medida de desempenho de um modelo de aprendizado de máquina que indica a proporção de classificações corretas em relação ao total de classificações realizadas e F1-score que é medida de desempenho que leva em consideração tanto a precisão quanto o recall. Os experimentos usaram a base de dados MedMNIST que é um conjunto de dados de imagens médicas para classificação, que foi criado para facilitar a pesquisa e o desenvolvimento de algoritmos de aprendizado de máquina para tarefas médicas, foram usando três conjuntos de dados do medMNIST. Nos resultados experimentais foi possível notar que a diferença nos re- sultados foi significativa, de um algoritmo para outro e de um conjunto de dados para outro. Foi possível perceber que a escolha do algoritmo é uma questão muito importante a considerar antes de começar qualquer processo evolutivo. Foi utilizada a ferramenta MOEA Framework para construir o experimento. Nos resultados os algoritmos SPEA2 (Strength Pareto Evoluti- onary Algorithm 2), NSGA-II (Non-dominated Sorting Genetic Algorithm II), PESA2 (Pareto Envelope-based Selection Algorithm 2) e DBEA (Dynamic Bi-Objective Evolutionary Algorithm) apresentaram os melhores desempenhos em todos os três conjuntos de dado, e apesar do NSGA-II (Non-dominated Sorting Genetic Algorithm II) ser o mais utilizado no estado da arte, o SPEA2 (Strength Pareto Evolutionary Algorithm 2) obteve melhores resultados na maioria dos testes. Por outro lado, os lgoritmos SMS-EMOA (Strength Pareto Multi-Objective Evolutio-nary Algorithm Based on the Riemannian Hypersphere, eMOEA (Well-Spread Pareto-Optimal Solutionse) e PAES (Pareto Archived Evolution Strategy) não foram capazes de contribuir parao desempenho da GE.PÉRICLES BARBOSA CUNHA DE MIRANDADISSERTAÇÃO
11
2024O IMPACTO DA ROTATIVIDADE NA QUALIDADE DE SOFTWAREANDRE ANTUNES BARROS SANTOSEngenharia de Software; Rotatividade; Retençãoo de Talentos; Qualidade de SoftwareA presente pesquisa refere-se à rotatividade de funcionários e impactos na qualidade de software. E um fenômeno que ocorre em muitas empresas de desenvolvimento de software e pode ter impactos negativos na qualidade de seus produtos. Quando os desenvolvedores deixam a empresa, podem levar consigo conhecimentos e habilidades valiosos, além de interromper o fluxo de trabalho e causar atrasos nos projetos. Al ém disso, a contrata ̧c ̃ao de novos desenvolvedores pode levar tempo e recursos adicionais para treinamento e integração. Para lidar com a rotatividade, é importante que as empresas adotem medidas para melhorar a satisfação e a retenção dos funcionários, como oferecer oportunidades de crescimento e desenvolvimento profissional, um ambiente de trabalho agradável e uma remunerção competitiva. Além disso, é importante que as empresas tenham processos e documentação claros e bem definidos para facilitar a integração ao de novos membros da equipe e minimizar o impacto da rotatividade. A qualidade do software é fundamental para o sucesso de um produto ou projeto de software. Uma baixa qualidade pode levar a falhas, retrabalho e insatisfação do usuário, além de impactar negativamente a reputação da empresa e a reputção de uma equipe de desenvolvimento, quando se trata de um cliente interno. A rotatividade de funcionários pode afetar negativamente a qualidade do software, pois novos desenvolvedores podem não estar familiarizados com o código existente e as práticas de desenvolvimento da empresa. Portanto, é importante que as empresas adotem práticas de engenharia de software que visem garantir a qualidade do software, como a realização de testes automatizados, a revisão de código por pares e a adoção de processos ágeis de desenvolvimento. Além disso, a documentação ao clara e a comunicação eficaz entre os membros da equipe podem ajudar a minimizar o impacto da rotatividade na qualidade do software.CESAR FRANÇA (ALBERTO CESAR CAVALCANTI FRANÇA)DISSERTAÇÃO
12
2023NA CALADA DO CÓDIGO: AÇÕES DE DESENVOLVEDORES DE SOFTWARE FRENTE ÀS LACUNAS NO DESIGN DA INTERFACE DE USUÁRIOCARLOS GALINDO MONTENEGROdesigner; desenvolvedor; colaboração; autonomia; engenharia de software;Em todo ato de seleção há várias exclusões implícitas. Sempre que se formula e se expressa uma ideia, seja num protótipo ou verbalmente, ocorre uma escolha de imagens, palavras e comportamentos que jamais será completa, pois inclui apenas aquilo que ocorreu, dado o tempo e as condições. Há limites em várias dimensões do que se pode incluir de informação num processo comunicativo e, portanto, há a certeza de que existirão lacunas no design apresentado. O que faz o desenvolvedor ao se deparar com estas lacunas no design durante o desenvolvimento? Algumas respostas foram encontradas no mapeamento da literatura, que trouxe ocorrências de certos comportamentos autônomos de desenvolvedores em relação ao design. Este fenômeno é o objeto de investigação principal deste estudo, que se valeu de duas pesquisas primárias próprias: questionário e entrevistas. Por meio da quantitativa, observou-se a ocorrência de cinco atitudes mais ou menos autônomas (sendo que a mais autônoma foi considerada como frequente por 21 dos 50 participantes), enquanto a pesquisa qualitativa apontou a predominância da otimização de tempo como principal fator associado às ações.RODRIGO PESSOA MEDEIROSDISSERTAÇÃO
13
2023ABORDAGEM BASEADA EM MACHINE LEARNING PARA PREDIÇÃO DA GRAVIDADE DE CASOS DE COVID-19CÍCERO EMANUEL DA SILVACOVID-19; inteligência artificial; predição; pandemia, machine learning.Em março de 2020, o surgimento do novo coronavírus levou a uma pandemia sem precedentes. Devido ao aumento expressivo na demanda por serviços de saúde, desafios estruturais significativos foram impostos ao Sistema Único de Saúde (SUS) do Brasil. Nesse contexto, a necessidade de ferramentas eficazes para auxiliar no combate à doença motivou a condução desta pesquisa. O foco principal deste estudo foi o desenvolvimento de um modelo de Inteligência Artificial (IA) capaz de prever a gravidade da COVID-19, visando otimizar o diagnóstico e fornecer suporte à avaliação clínica. A pesquisa foi conduzida seguindo a metodologia estruturada do Cross Industry Standard Process for Data Mining (CRISP-DM). Esta metodologia envolveu cinco etapas principais: entendimento do negócio, entendimento dos dados, preparação dos dados, modelagem e avaliação. Utilizando os dados clínicos de exames médicos e a classificação de gravidade estabelecida pela Organização Mundial da Saúde (OMS), foi possível desenvolver e avaliar um modelo de IA direcionado para prever a gravidade da doença. Na etapa de modelagem, foram comparadas diversas técnicas de aprendizado de máquina, incluindo Floresta Aleatória, Redes Neurais Artificiais e Regressão Logística. Cada algoritmo foi submetido a uma avaliação criteriosa, buscando identificar as abordagens mais eficazes para a previsão da gravidade da doença. Após a implementação dos algoritmos, os modelos resultantes alcançaram notáveis métricas de desempenho. A Regressão Logística apresentou acurácia de 91,30%, precisão de 88,96% e F1-score de 89,49%. O modelo de Redes Neurais Artificiais obteve acurácia de 91,89%, precisão de 89,09% e F1-score de 90,00%. O modelo Floresta Aleatória apresentou acurácia de 81,15%, precisão de 76,17% e F1-score de 78,17%. Ao final deste processo, as Redes Neurais Artificiais e a Regressão Logística se destacaram em termos de desempenho e, portanto, foram selecionadas como os modelos mais promissores para futura implementação em ambientes reais. Com base nas avaliações realizadas e nos resultados obtidos, conclui-se que a utilização de técnicas de aprendizado de máquina para aperfeiçoar o diagnóstico da COVID-19 é não só viável, mas também eficaz. A adoção de um modelo de IA desenvolvido para prever a gravidade da doença tem o potencial de impactar significativamente a prática médica e a gestão de recursos de saúde. Utilizando dados clínicos disponíveis no momento do diagnóstico, essa abordagem pode melhorar a precisão da avaliação da gravidade da COVID-19, auxiliando, assim, na tomada de decisões mais informadas e na alocação mais eficaz dos recursos de saúde.ERICO SOUZA TEIXEIRADISSERTAÇÃO
14
2024OTIMIZANDO A PESQUISA JURISPRUDENCIAL BASEADA EM DOCUMENTOS COM LANGCHAIN E LARGE LANGUAGE MODELDANILO FERIAN ANTUNESPesquisa jurisprudencial; LangChain; Large language model; Inteligência artificial.O fenômeno da judicialização, que se refere ao uso cada vez mais frequente do sistema judiciário para resolver questões que ultrapassam os casos tradicionais de disputa, tem sido uma tendência notável no Brasil nas últimas décadas. Esse fenômeno tem impactado profundamente tanto o sistema jurídico quanto a sociedade brasileira em geral. A alta demanda por serviços do judiciário resulta na apresentação de demandas repetitivas, cada vez mais comuns, que exigem a criação de jurisprudências pelos tribunais superiores. Essas jurisprudências buscam harmonizar as decisões tomadas em todos os níveis judiciais. Devido à importância central da jurisprudência no ordenamento jurídico brasileiro, a pesquisa jurisprudencial tornou-se parte essencial do trabalho diário dos advogados. Entretanto, um dos desafios dessa pesquisa é sua natureza repetitiva e muitas vezes improdutiva, dado que está restrita a palavras-chave, sem considerar a semântica. Neste contexto, torna-se crucial adotar medidas que possam otimizar a pesquisa jurisprudencial, a fim de aumentar sua eficácia e eficiência. Este estudo se dedica a explorar o potencial dos Large Language Models na pesquisa jurídica – especificamente em tarefas que envolvem responder a perguntas baseadas nos Informativos de Jurisprudência do Superior Tribunal de Justiça. Neste trabalho compararemos o desempenho dos advogados humanos ao de um modelo baseado em Large Language Models associado à embedding semânticos, em termos de tempo de entrega e acurácia das respostas na obtenção de suporte jurisprudencial para casos concretos. Examinar as forças e limitações dos advogados humanos e dos modelos de Inteligência Artificial serve não apenas para entender melhor a viabilidade dessas soluções tecnológicas, mas também para lançar luz sobre as possíveis consequências da integração da Inteligência Artificial na carreira jurídica.RAFAEL FERREIRA LEITE DE MELLODISSERTAÇÃO
15
2023MODELOS DE APRENDIZADO DE MÁQUINA APLICADOS PARA PREVISÃO DE FALÊNCIA DE EMPRESASEVERTON DE OLIVEIRA SARMENTOprevisão de falência; aprendizado de máquina; ranking de modelos; ranking de features.Este trabalho desenvolve e analisa modelos de previsão de falência de empresas (PFE) utilizando algoritmos de aprendizado de máquina (AM). Para entender o estado da arte e embasar a teoria por trás do tema, foi realizada uma revisão sistemática da literatura (RSL), cujos resultados serviram para escolha dos modelos implementados no posterior experimento. A etapa experimental utilizou 4 bases de dados severamente desbalanceadas contendo empresas de mercados distintos do mesmo país, com o intuito de investigar o poder de generalização de 9 modelos treinados e validados com dados de um mercado e testados em outro. Por fim, são realizados rankings com suporte estatístico dos melhores modelos dadas métricas e ranking das melhores características que auxiliam a PFE. Os três modelos com maiores ROC AUC no experimento foram Regressão Logística (RegLog), Support Vector Machines (SVM) e Redes Neurais Artificias (RNA), obtendo ROC AUC médio de 0,794, 0,786 e 0,776 respectivamente. Estes mesmos algoritmos foram os mais encontrados na revisão sistemática, sendo abordados em 21, 26 e 16 trabalhos respectivamente. Em termos do ranking que contabiliza o número de contestações/rejeições à hipótese de superioridade de um modelo frente a um desafiante utilizando a métrica ROC AUC, os melhores modelos são primeiramente SVM, depois RegLog e em erceiro RNA. O uso dos rankings diferentes constatou que o SVM performou melhor que o RegLog em mais cenários, contudo, quando eg Log foi superior a diferença foi maior. Os índices contábeis identificados como mais relevantes no experimento foram referentes ao ndividamento (49,9% de importância) e os menos relevantes são vinculados à Rentabilidade (13,4%).RODRIGO CARNEIRO LEÃO VIEIRA DA CUNHADISSERTAÇÃO
16
2023SISTEMA DE CONTROLE VEICULAR UTILIZANDO BRAIN COMPUTER INTERFACE PARA AJUDAR NA QUALIDADE DE VIDA DE PESSOAS COM DEFICIÊNCIA MOTORA NOS MEMBROS INFERIORESFABRICIO TORQUATO LEITEaprendizado de máquina; brain computer interface; robot operating system.A tecnologia está em constante evolução disponibilizando novas horizontes para serem estudados. Ao observar os estudos de novas tecnologias, uma das áreas que merece atenção das pesquisas é a inclusão social, isso devido ao número expressivo de Pessoas Com Deficiência (PCD). Ter uma boa qualidade de vida é de grande valia para todas as pessoas, de modo que nessa dissertação é trabalhado como melhorar este aspecto para pessoas que se enquadram com complicações nas ações motoras inferiores. O desenvolvimento de melhorias contínuas nesse tipo de recurso está fortemente ligada na tentativa de neutralizar as barreiras causadas pelas complicações. Sendo assim, se o campo de tecnologia assistiva ficar defasado, pessoas que utilizam desses meios tecnológicos para melhorar sua qualidade de vida estarão diretamente afetados. Este trabalho propõe utilizar um Eletroencefalograma (EEG), um sensor de monitoramento não invasivo que analisa a atividade elétrica cerebral, com estudos na área de Brain Computer Interface (BCI) para criar uma fluxo de treinamento e avaliação de algoritmos de inteligência artificial para um sistema de controle de um carrinho movido a uma raspberry pi interfaceado com o framework Robot Operating System (ROS), onde os algoritmos preditivos fazem a interpretação das atividades cerebrais do usuário para identificar comandos motores voluntários, em questão, movimentos das mãos/braços esquerda e direita, tais ações se corresponde à rotacionar as rodas do carrinho para esquerda ou para direita, além disso, a ausência de ações motoras das mãos são interpretados como seguir em frente. A fim de contribuir para o avanço da área do BCI, este trabalho realizou ciclos de experimentos com usuários em teste prático com 3 algoritmos de redes neurais diferentes, de modo que resultados encontrados possibilitaram a comparação da atuação das redes de aprendizado profundo. Além disso, esse trabalho utilizou de estudo de casos para avaliar o comportamento dos algoritmos na prática com ciclos de experimentos e entrevistas, a fim de obter não somente resultados estatísticos dos modelos em questão mas também uma comparação de como eles se comportam em exemplos práticos. Mesmo a ChrnoNet possuindo resultados superiores, tanto nos cálculos estatísticos quanto nos experimentos práticos quando comparado a Convolutional Neural Network (CNN) simples e Long Short-Term Memory (LSTM), os feedbacks coletados dos voluntários do experimento permitiram compreender quais as desvantagens em arquiteturas do estilo recorrente, de modo que devido sua características de propagação de erro as predições erradas dos modelos acabavam frustrando o usuário causando diversas predições aleatórias na sequência, e isso é Comprovado pelo fato de que para melhorar os resultados o usuário utiliza de uma adaptação momentânea relaxando, fechando os olhos, e momentos após essa ação o modelo volta a responder com alta assertividade seus movimentos, sem precisar do retreinamento da rede. Com isso, essa dissertação é dedicado a contribuir com a qualidade de vida de pessoas que possuem alguma complicação nas ações motoras dos membros inferiores, isso pelo fato da possibilidade da reutilização do princípio de movimentação das rodas do carrinho para outros meios de interação motora como caso de uma cadeira de rodas elétrica.WALTER CHARLES SOUSA SEIFFERT SIMÕESDISSERTAÇÃO
17
2024COMUNICAÇÃO EM EQUIPES DE DESENVOLVIMENTO DE SOFTWARE: UM ESTUDO NO CONTEXTO DE COMUNICAÇÃO ENTRE PROGRAMADORES E QA’S EM AMBIENTES REMOTOS E HÍBRIDOS DURANTE A PANDEMIA DE COVID-19FELIPE DE NEIVA RIBEIRO JANSENtransição para trabalho remoto/híbrido; comunicação em times remotos/híbridos de desenvolvimento de software; pandemia de COVID-19.A rápida transição para modelos de trabalho remoto/híbrido durante a pandemia de COVID-19 teve um impacto significativo na comunicação e coordenação dentro das equipes de desenvolvimento de software. Com este projeto, investigamos o impacto da comunicação remota em equipes de desenvolvimento de software híbridas, especialmente no contexto da pandemia de COVID-19. O estudo busca fornecer uma análise abrangente dos desafios e obstáculos inerentes à comunicação remota entre programadores e QAs em equipes de desenvolvimento de software híbridas/remotas. A pesquisa explora a adaptação dos profissionais às circunstâncias excepcionais impostas pela pandemia de COVID-19, analisando suas práticas de comunicação, dinâmicas de interação e resultados tangíveis no campo do desenvolvimento de software. A dissertação utiliza uma abordagem metodológica baseada em pesquisas para coletar dados empíricos e identificar insights fundamentais. Também busca entender as estratégias e processos adotados pelas equipes para facilitar a comunicação e a coordenação, bem como seu impacto no desempenho, produtividade e qualidade do trabalho. Com este projeto, exploramos os desafios e oportunidades apresentados por essa mudança, com foco na dinâmica entre programadores e QAs. Através da utilização da pesquisa qualitativa, quantitativa, survey e amostragens por conveniência e bola de neve, o estudo fornece insights sobre as dificuldades específicas enfrentadas por esses profissionais, destacando as complexidades da comunicação remota e a necessidade de estratégias eficazes para mitigar esses desafios. Os resultados revelam que a transição repentina para o trabalho remoto e híbrido levou a mudanças significativas nos padrões de comunicação, coordenação de atividades e na qualidade geral dos entregáveis do projeto. Além disso, o estudo identifica a necessidade de metodologias e práticas formais para melhorar a comunicação e coordenação em ambientes de trabalho remoto e híbrido. Também enfatiza a importância de adaptar fluxos de trabalho existentes, introduzir novas práticas de gestão de projetos e investir em tecnologia para facilitar a colaboração e comunicação remotas. No geral, esta dissertação de mestrado contribui para o corpo de conhecimento em engenharia de software ao oferecer diretrizes práticas para melhorar a comunicação e colaboração dentro de equipes de desenvolvimento de software remoto e híbrido. O estudo abre caminho para pesquisas adicionais sobre a comunicação em engenharia de software, contribuindo para uma compreensão mais profunda dos ambientes de trabalho remoto e híbrido, visando melhorar a eficácia das equipes em contextos desafiadores.RONNIE DE SOUZA SANTOSDISSERTAÇÃO
18
2023UTILIZAÇÃO DE FERRAMENTAS DE VISUALIZAÇÃO DE SOFTWARE NAFACILITAÇÃO DO ONBOARDING TÉCNICOFERNANDO DE OLIVEIRA PADOANvisualização de software; onboarding técnico; equipes de desenvolvimento; transferência de conhecimento; integraçãoDesenvolvedores de software chegam a passar mais da metade do tempo de trabalho lendo e compreendendo código-fonte pré existente em seus projetos. Empresas de desenvolvimento de software, por sua vez, podem optar pela adoção de processos bem definidos de integração de novos contratados, processos estes também conhecidos por onboarding. Mais especificamente, onboarding técnico diz respeito ao conjunto de atividades e eventos promovidos por equipes para receber e aclimatar novos membros aos processos, erramentas, artefatos e código-fonte dos projetos onde atuam. Dado o crescente desafio em atrair e reter profissionais de desenvolvimento de software, uma boa experiência de onboarding é considerada estratégia fundamental para gestores de empresas esta indústria. Além dos processos mencionados, recursos tecnológicos podem ser aplicados como forma de facilitação do onboarding técnico de desenvolvedores. Ferramentas de visualização de software, por exemplo, se baseiam em conceitos de visualização de informação, usabilidade e engenharia para representar programas e dados, podendo ser aplicadas na transferência de conhecimento e compreensão de sistemas de software em geral. De acordo com o mapeamento sistemático da literatura relatado neste trabalho, muito da pesquisa em visualização de software aplicada ao onboarding de desenvolvedores se propõe a descrever e validar ferramentas para tratar aspectos específicos da compreensão de programas em contextos simulados. Com isso, poucos estudos se empenham em investigar os efeitos da utilização de tais ferramentas na facilitação do onboarding técnico em equipes da indústria de desenvolvimento de software. Este trabalho busca uma exploração da experiência de profissionais da indústria na utilização de ferramentas de visualização de software nos processos de onboarding técnico, através da condução de métodos complementares de coleta de dados realizada por questionários e entrevistas semi-estruturadas. A partir de uma análise cruzada dos dados coletados, este trabalho visa apresentar recomendações quanto ao uso de ferramentas de visualização de software no processo de onboarding técnico.RODRIGO PESSOA MEDEIROSDISSERTAÇÃO
19
2023DESENVOLVIMENTO DE UM PROCESSO DE AVALIAÇÃO DE MATURIDADE ÁGIL ORGANIZACIONAL EM UMA CONSULTORIA DE TRANSFORMAÇÃO DIGITAL MULTINACIONALFRANCISCO JAKES CARDOSO DOURADObusiness agility, adaptação ágil; maturidade ágil; melhoria contínua; metodologias ágeis.No cenário desafiador das consultorias de transformação digital em âmbito multinacional, a Business Agility se destaca como um fator crucial para uma adaptação ágil diante das mudanças e exigência do mercado. Nesse contexto, a avaliação da maturidade ágil desempenha um papel primordial, assegurando o sucesso dasFERNANDO JOSÉ ARAÚJO WANDERLEYDISSERTAÇÃO
20
2023O USO DA ANÁLISE DE SKILLS GAP EM ESTRATÉGIAS DE REDUÇÃO DO DÉFICIT DE PROFISSIONAIS DA ÁREA DE ENGENHARIA DE SOFTWAREFRANCISCO SILVA DE MOURAIndústria de Software; Skill Gap; Dificuldade de contratação; Competências.Com a popularização e constante evolução da Tecnologia da Informação e Comunicação (TIC), a demanda por softwares tem aumentado consideravelmente, impulsionando cada vez mais o mercado de tecnologia, gerando uma alta procura por mão de obra qualificada. Em um cenário, no qual a indústria de software, profissionais de TI e o setor de educação em TI são impactados pelo avanço tecnológico, as habilidades requeridas para acompanhar esse avanço, tanto para o profissional formado ou em formação, quanto para academia, devem estar alinhadas aos novos perfis demandados pela indústria. Uma vez que as empresas têm relatado dificuldade de contratação, principalmente por falta de profissionais alinhados com as necessidades e tecnologias atuais exigidas, gerando uma lacuna de habilidades (skill gap) entre indústria e mão de obra encontrada. Com isso, esta pesquisa tem como objetivo o uso da análise de skills gap em estratégias de redução do déficit de profissionais na área de engenharia de software em uma empresa de distribuição de produtos farmacêuticos. Realizada por meio de questionários aplicados a 23 colaboradores do setor de TI da empresa participante do estudo, divididos em dois grupos: Gestão de TI (Gerente e Coordenador) e Colaboradores de TI (Suporte e Desenvolvimento). Na qual, identificou-se as principais habilidades dentro do escopo definido pela empresa, com foco no skill gap, de forma a destacar as habilidades a serem adquiridas e/ou aprimoradas, e assim disponibilizar os dados para estabelecer quais habilidades devem ser priorizadas, auxiliando em estratégias de treinamento e/ou contratação de profissionais. Desenvolver e manter um programa de treinamento para as habilidades decorrentes do resultado da análise de skill gaps é uma alternativa para preencher o gap da falta de mão de obra qualificada, pois à medida que as tecnologias evoluem, os requisitos de habilidades não permanecerão os mesmos. Dessa forma, ao definir estratégias ou ações que visem diminuir o efeito do skill gap é importante ter uma visão de quais skills são necessárias, e isso pode ser obtido por meio de uma análise de skills gap, que pode auxiliar as empresas em estratégias para captar, desenvolver, manter ou reter profissionais da área.GUSTAVO HENRIQUE DA SILVA ALEXANDREDISSERTAÇÃO
21
2023VISUALIZAÇÃO DE DADOS PARA ANALISAR A LOGÍSTICA REVERSA DE RESÍDUOS ELETROELETRÔNICOS NO BRASILINGO BEZERRA WOLTERlogística reversa; resíduos eletroeletrônicos; visualização de dados. storytelling.Esta dissertação tem como objetivo propor o uso de storytelling de visualização de dados para analisar a logística reversa de resíduos eletroeletrônicos e seus impactos ambientais no Brasil, desenvolvendo um roteiro para facilitar o entendimento do descarte e a logistica reversa através da storytelling com visualização de dados, uma área relevante dentro da engenharia de dados e que tem crescido no interesse acadêmico. Realizou-se um mapeamento sistemático da literatura na base de dados de periódicos da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) e na Biblioteca Digital da Sociedade Brasileira de Computação (SBCOpenLib). Como critérios de inclusão foram definidos: ser publicado em formato completo; dentro do recorte temporal de 2013 a 2023; ser escrito em língua portuguesa ou inglesa. Salienta-se que o recorte temporal foi definido por representar os últimos 10 anos, considerando a rapidez da evolução tecnológica, pesquisas anteriores seriam obsoletas. Como critérios de exclusão: ser carta ao editor; apresentar resultados parciais; estar repetido nas bases de dados; e não responder ao questionamento de pesquisa. Foram selecionados 28 artigos para compor este estudo, visto que não respondiam ao questionamento de pesquisa levantados ou auxiliavam a atender os objetivos de estudo. A partir da fase de execução da pesquisa foram selecionados 28 artigos para compor este estudo, estes que serão analisados em relação ao ano de publicação, objeto de aplicação da visualização de dados e framework utilizado pelos autores. Os resultados encontrados pelos autores também foram analisados a partir de uma abordagem qualitativa, considerando o caminho utilizado na visualização de dados e os resultados que encontraram a partir disso.GUSTAVO HENRIQUE DA SILVA ALEXANDREDISSERTAÇÃO
22
2024UM ESTUDO SOBRE O USO DE LARGE LANGUAGE MODELS PARA MENSURAR A QUALIDADE DE DEBATES ESCRITOS EM PLATAFORMAS DE COLABORAÇÃOMANOEL ANTÔNIO DE FREITAS NETODebates; Large Language Models; Inteligência Artificial; Avaliação de Maturidade; Tomada de decisão.A comunicação e o debate são elementos fundamentais na evolução das sociedades humanas, desempenhando um papel crucial na tomada de decisão, resolução de conflitos, aprendizado, persuasão e troca de informações. Desde as primeiras formações coletivas de humanos até a composição de complexas sociedades modernas, a interação tem sido uma ferramenta poderosa para o avanço do conhecimento e para a construção de consensos entre as pessoas. Com o surgimento de plataformas de colaboração como strateegia.digital, a natureza do debate sofreu transformações significativas. As redes sociais e plataformas colaborativas tornaram-se espaços privilegiados para debates escritos, muitas vezes assíncronos, que ultrapassam as fronteiras geográficas e culturais. No entanto, esta nova forma de debate traz consigo desafios únicos de um novo modelo de discussão, principalmente relacionados à sua qualidade e maturidade. Neste contexto, surge a questão: como podemos avaliar a qualidade dos debates em um ambiente digital? A resposta pode estar nos avanços recentes da inteligência artificial, particularmente no desenvolvimento e popularização de Large Language Models através de interfaces como chatGPT, por exemplo. Estes modelos, baseados em tecnologias de processamento de linguagem natural e redes neurais, oferecem um potencial significativo para analisar e mensurar aspectos qualitativos de textos, incluindo debates escritos, e aplicar uma nova dimensão de inteligência na estruturação desses debates. O objetivo desta pesquisa é explorar a aplicação de Large Language Models como ferramenta de apoio na avaliação da qualidade de debates focados em tomada de decisão, construídos em plataformas de colaboração. Pretende-se desenvolver, testar e avaliar uma metodologia que possa mensurar a maturidade dos debates, considerando os seguintes critérios: estrutura argumentativa, qualidade da informação, interação e engajamento, uso de linguagem adequada e respeito, e evidências da aplicação de pensamento crítico. Esta pesquisa compara o uso de três modelos de Large language models presentes no mercado quando aplicados no contexto de mensuração de maturidade de debates escritos, e desenvolve uma pesquisa-ação na plataforma de colaboração strateegia.digital, utilizada para debates de tomadas de decisão e construção de consensos.SILVIO ROMERO DE LEMOS MEIRADISSERTAÇÃO
23
2024VENDAS COMPLEXAS: ANÁLISES COMPARATIVAS DE PRÁTICAS DA INDÚSTRIA E ACADEMIAMARCELO PINHEIRO DE MENDONÇAanálise de dados; vendas complexas; CRM; predição; B2B.Este trabalho científico apresenta um estudo sobre a influência das técnicas de análise de dados, Machine Learning e Processamento de Linguagem Natural na melhoria dos modelos de previsão de vendas B2B e no suporte à tomada de decisões em ambientes de CRM. O objetivo geral deste trabalho é investigar o impacto de abordagens de precisão das previsões de vendas, promovendo a eficácia das estratégias de vendas e gestão de leads em ambientes empresariais. A partir de um mapeamento bibliográfico estendido, são analisados cinco estudos centrais, destacando suas contribuições e influências no campo. Por meio de uma análise pré-estudos, consistindo em um mapeamento das referências citadas por cada um dos cinco estudos, e de uma análise pós-estudos, com base em referências na literatura que citam os cinco estudos selecionados, são identificadas as principais tendências e avanços na área, ressaltando a importância da integração de técnicas avançadas de análise de dados para impulsionar as vendas e maximizar o desempenho das empresas no mercado. Posteriormente, são apresentados os resultados da realização de uma pesquisa de campo com especialistas em vendas, utilizando suas experiências para obter informações adicionais sobre como as análises de dados afetam as vendas, visando aprimorar a compreensão desse impacto. Além disso, são apresentadas orientações práticas por meio de uma proposta de recomendações para implementar estratégias baseadas em análise de dados no ambiente empresarial para otimizar as práticas de vendas e gestão de leads, resultando em uma melhoria significativa na eficiência operacional, maior precisão nas previsões de vendas e, consequentemente, um impacto positivo na competitividade e no desempenho global de mercado.GUSTAVO HENRIQUE DA SILVA ALEXANDREDISSERTAÇÃO
24
2023ES GAMEFLIP. APLICANDO A GAMIFICAÇÃO NO ENSINO DA ENGENHARIA DE SOFTWARE PARA ALUNOS DO ENSINO MÉDIO INTEGRADO AO CURSO TÉCNICO EM INFORMÁTICAMAYLLON VERAS DA SILVAgamificação; engenharia de software; pesquisa-ação; relato de experiência.A crescente demanda por profissionais qualificados na área de engenharia de software requer abordagens educacionais inovadoras para aumentar a motivação, aprendizado e desempenho dos alunos. No entanto, muitos estudantes enfrentam dificuldades ao longo do processo de aprendizado, resultando em perda de motivação e baixo desempenho acadêmico. Nesse contexto, a gamificação surge como uma estratégia promissora para melhorar a experiência de aprendizagem. Diante deste cenário, o presente estudo investiga o impacto da gamificação no ensino da engenharia de software para alunos do ensino médio integrado ao curso técnico em Informática, através do desenvolvimento e implantação da plataforma gamificada intitulada: ES GameFlip. O objetivo é analisar a influência da gamificação na motivação, aprendizado e desempenho dos estudantes. Trata-se de um relato de experiência baseado em uma pesquisa- ação realizada no Instituto Federal do Piauí, campus Piripiri, em 2022. A pesquisa-ação envolveu quatro fases: exploratória, principal, de ação e de avaliação. A fase exploratória consistiu em revisar a literatura sobre gamificação no ensino da engenharia de software e analisar o perfil da turma por meio de um questionário socioeconômico educacional. Na fase principal, foram elaborados dois planos de ensino semestrais e uma camada de gamificação na plataforma Moodle, utilizando para o planejamento desta camada, o Gamification Model Canvas. Na fase de ação, a abordagem proposta foi aplicada em um ambiente real de ensino, incluindo elementos de gamificação como recompensas, desafios e competição para motivar os alunos a participarem das atividades de aprendizagem. Na fase de avaliação, questionário e grupo focal foram utilizados como instrumentos para verificar os efeitos da aplicação da abordagem, com base no framework para a avaliação da gamificação na engenharia de software. Os resultados iniciais indicam que a gamificação teve impacto positivo na motivação dos alunos, melhorando o aprendizado e o desempenho na disciplina. Contudo, há possíveis ameaças à validade do estudo, como a limitação do tamanho da amostra e a dificuldade de generalização dos resultados. Este trabalho contribui para a pesquisa em gamificação no ensino da engenharia de software, fornecendo uma experiência prática de sua aplicação em um contexto educacional específico de uma instituição federal de ensino técnico localizada em uma cidade do interior, seus resultados e insights para melhorias em trabalhos futuros que explorem este contexto.RODRIGO BOTELHO CURSINODISSERTAÇÃO
25
2023ASKTRESS: APLICATIVO PARA COLETA DE DADOS DE ESTRESSE EM DESENVOLVEDORES DE SOFTWAREPAULO SÉRGIO DOS SANTOS JÚNIORPANAS; Estresse; Engenharia de software.O ambiente de engenharia de software é notoriamente estressante, impactado por múltiplos fatores como prazos apertados, comunicação inadequada e pressão por resultados. Este trabalho se concentra em coletar dados de estresse com base em aspectos emocionais. Utilizando a escala PANAS (Positive and Negative Affect Schedule) como métrica de avaliação emocional, foi desenvolvido um aplicativo chamado Asktress para coletar dados de uma equipe de desenvolvedores durante um período de 20 dias. A análise dos dados revelou sentimentos emocionais variados entre os membros da equipe, com tendências tanto estáveis quanto instáveis, dependendo do aspecto emocional considerado. O aplicativo demonstrou ser uma ferramenta util coletar estes dados, embora sugira-se para futuras pesquisas a incorporação de funcionalidades de análise de dados mais sofisticadas. Este estudo contribui para o campo da engenharia de software, fornecendo uma ferramenta prática para a aplicação do questionário PANAS, que poderá ajudar a prevenir problemas de saúde mental relacionados ao estresse e melhorar a eficiência e produtividade das equipes de desenvolvimento.CESAR FRANÇA (ALBERTO CESAR CAVALCANTI FRANÇA)DISSERTAÇÃO
26
2024UM GUIA DE BOAS PRÁTICAS EM GESTÃO DE EQUIPES HÍBRIDAS : UM ESTUDO DE CASORAFAEL CALANDRELI OLIVEIRA ARAÚJOGestão de Equipes; Trabalho Híbrido; Gestão de Equipes Híbridas.A pandemia da COVID-19 se tornou uma das crises mais impactantes da era moderna, deixando profundas marcas na economia, nas organizações e nos trabalhadores em todo o mundo. As empresas, em particular, tiveram que se adaptar rapidamente para manter suas operações eficientes durante esse período desafiador. No entanto, à medida que essa fase crítica se aproximava do fim, algumas empresas começaram a retomar gradualmente as atividades presenciais, oferecendo a opção de trabalhar de forma híbrida. Este estudo foi realizado no CESAR, um instituto de ciência e tecnologia que reabriu seus escritórios para permitir aos seus colaboradores a possibilidade de trabalhar de forma presencial, híbrida ou continuar atuando de forma 100% remota. Nesse contexto, o objetivo primordial deste trabalho foi desenvolver um guia de boas práticas destinado a auxiliar gestores de projetos a enfrentar os desafios do crescimento rápido do trabalho híbrido em empresas de tecnologia. Esse guia oferece diretrizes práticas e estratégicas para garantir o êxito de projetos no ambiente de trabalho híbrido, abordando aspectos cruciais como comunicação, liderança e motivação. Este estudo teve como primeiro objetivo analisar as opiniões de gerentes de projetos e membros da equipe do CESAR sobre a implementação do modelo de trabalho híbrido. Utilizando questionários, buscou-se identificar pontos positivos e negativos, principais dificuldades e estratégias adotadas para superar desafios. Essa análise proporcionou uma compreensão abrangente da experiência da equipe com o trabalho híbrido. Os resultados dos questionários orientaram o segundo objetivo, que visava identificar as melhores práticas adotadas pelos gerentes de projetos e membros da equipe, incorporando essas descobertas ao guia como contribuições valiosas. O terceiro objetivo concentrou-se na criação do guia de boas práticas, oferecendo sugestões e orientações específicas para configurar uma plataforma de trabalho adequada ao modelo híbrido. O guia aborda questões essenciais, como comunicação, liderança e motivação da equipe, formuladas com base em ideias obtidas por meio de pesquisa exploratória e respostas aos questionários aplicados no CESAR. O guia apresenta também características fundamentais de cada um dos modelos de trabalho, detalhando as suas vantagens e desvantagens. Ele também fornece um questionário que pode auxiliar os gestores de projetos na tomada de decisões relacionadas a esses modelos. Além disso, ele abrange informações sobre as ferramentas de comunicação e de gestão de projetos utilizadas pelas equipes, bem como destacar as habilidades técnicas e interpessoais necessárias para operar no ambiente de trabalho híbrido. Por último, o guia compartilha ideias e visões provenientes das pesquisas realizadas, contribuindo para ampliar o conhecimento disponível sobre o tema.GEORGIA BARBOSADISSERTAÇÃO
27
2023IMPLEMENTAÇÃO DE OKR PARA APRIMORAR A GESTÃO DE PROJETO INTEGRADOR: UMA PERSPECTIVA DE PROJECT BASED LEARNING PARA ESTUDANTES DE COMPUTAÇÃO EM UM CENTRO UNIVERSITÁRIO DA REGIÃO DO CARIRIRAMON FELIZARDO DA COSTAObjetivos e Resultados-Chave; Aprendizagem Baseada em Projetos; Gestão de Projetos; Projeto Integrador.O gerenciamento eficiente de projetos é uma habilidade essencial para profissionais da área de Tecnologia da Informação. Nesse sentido, é crucial que estudantes desenvolvam competências em gerenciamento de projetos durante sua formação acadêmica, por meio de metodologias que promovam a aprendizagem ativa e participativa. Uma dessas metodologias amplamente utilizada em disciplinas de Tecnologia da Informação é o Project Based Learning (PBL), que busca incentivar a aprendizagem baseada em projetos, permitindo aos estudantes aplicar conhecimentos teóricos na prática e desenvolver soluções para problemas reais. No entanto, a gestão de projetos pode representar um desafio para os estudantes, que frequentemente enfrentam dificuldades na organização do trabalho em equipe e no controle das entregas. Para superar essas dificuldades, a metodologia OKR (Objectives and Key Results) pode ser uma alternativa eficaz para aprimorar a gestão de equipes de Tecnologia da Informação no contexto de projetos. A metodologia OKR oferece uma estrutura clara e objetiva para monitorar o progresso do projeto, estabelecendo objetivos e resultados-chave (OKRs) definidos pelo professor e utilizados tanto pelos estudantes quanto pelos docentes por meio do quadro Kanban. Dessa forma, os OKRs se configuram como uma ferramenta efetiva para gerenciar equipes de Tecnologia da Informação, contribuindo para alcançar os objetivos do projeto de forma mais eficiente e eficaz. Este estudo teve como objetivo solucionar um problema real de gestão de um projeto integrador nos cursos de Sistemas de Informação e Análise e Desenvolvimento de Sistemas, além de avaliar a eficácia da utilização da metodologia OKR em conjunto com o PBL aplicado a projetos integradores (PI). A metodologia OKR foi combinada com o PBL e utilizada para estruturar os objetivos, resultados-chave e ações das equipes, que foram responsáveis por entregar o projeto de software em quatro etapas. Dados de entrega dos projetos foram coletados e análises estatísticas foram realizadas para avaliar a eficácia das metodologias utilizadas. Os resultados indicaram que a aplicação da metodologia OKR em conjunto com o PBL contribuiu para uma gestão mais eficiente do processo de gerenciamento de projeto em benefício dos estudantes, promovendo a autonomia dos alunos no processo de gestão e melhorando o controle das entregas pelos professores. Portanto, a utilização da metodologia OKR no cenário de PBL é uma abordagem eficaz para aprimorar a gestão de projetos integradores de software em disciplinas de Tecnologia da Informação no contexto de projeto integrador.GUSTAVO HENRIQUE DA SILVA ALEXANDREDISSERTAÇÃO
28
2023THEMIS: UMA FERRAMENTA POLIGLOTA PARA GERAR TESTES DE CONTRATORUBEM FERREIRA SANTOS VASCONCELOSTeste de Contrato; Teste em Microsservi ̧cos; Automa ̧c ̃ao de Teste de Software; Qualidade de Software; Autoteste de Sistemas.O padrão arquitetural de microsservi ̧cos tem sido amplamente adotado por grandes empresas com o objetivo de construir sistemas antifrágeis, que evoluam e melhorem continuamente. No entanto, testar microsservi ̧cos ́e uma tarefa desafiadora devido `a sua descentraliza ̧c ̃ao e `a necessidade de garantir o correto funcionamento entre todas as comunica ̧c ̃oes. Para garantir a integra ̧c ̃ao de microsservi ̧cos, testes de contrato s ̃ao mais r ́apidos, baratos e confi ́aveis que testes ponta a ponta, al ́em de mudar a cultura do time positivamente ao estimular o pensamento sobre as consequˆencias de cada mudan ̧ca que ́e implantada no sistema. No entanto, apesar de seus benef ́ıcios, os testes de contrato s ̃ao complexos de serem adotados pelas equipes devido `a necessidade de a ̧c ̃oes tanto do lado do cliente quanto do servidor, al ́em de requerer configura ̧c ̃oes espec ́ıficas e tamb ́em mudar a cultura interna de desenvolvimento. Devido a essa complexidade, muitos times continuam usando testes ponta a ponta para testar servi ̧cos integrados distintos, enfrentando problemas como falsos negativos e falsos positivos. Nesse contexto, esta pesquisa prop ̃oe uma ferramenta poliglota para ajudar profissionais a serem mais produtivos sem sacrificar a qualidade, garantindo uma maior confian ̧ca do que ́e desenvolvido e reduzindo os custos operacionais. A ferramenta, chamada Themis, proporciona um modo mais eficiente, seguro e r ́apido do que o tradicional para testar microsservi ̧cos de diferentes linguagens por meio de testes de contrato. Isso permite que equipes de diferentes maturidades garantam mais qualidade nas entregas, sem depender de testes ponta a ponta. Themis foi aplicada em um contexto real e seus resultados ser ̃ao mostrados e discutidos. A avalia ̧c ̃ao foi feita por especialistas e destaca que a ferramenta permite que desenvolvedores de software que nunca haviam utilizado teste de contrato consigam entregar mais qualidade em menos tempo do que o modo tradicional de testar.GUSTAVO HENRIQUE DA SILVA ALEXANDREDISSERTAÇÃO
29
2024UMA AVALIAÇÃO EXPLORATÓRIA DA SEGURANÇA PSICOLÓGICA DE TIME E O IMPACTO NA FALTA NO ENGAJAMENTO DO TIMESABRINA SAMPAIO MENDESSegurança Psicológica; Motivação; Engajamento; Ambiente Seguro.Em tempos que vivemos no mundo BANI (do inglês B (brittle) frágil, A (anxious) ansioso, N (non-linear) não linear e I (incomprehensible) incompreensível) que acabam provocando ambientes estressantes, que mudam constantemente, as equipes são exigidas continuamente para atender demandas cada vez mais ágeis e isso pode acabar gerando uma falta de segurança psicológica nos profissionais. Após a pandemia da COVID, o trabalho em equipe se tornou ainda mais complexo, pois a dinâmica de trabalho passou a ser remota ou híbrida em muitas empresas. Com essas mudanças na estrutura locacional, criar ambientes de trabalho psicologicamente saudáveis, se tornou um desafio, uma vez que estamos em contato com vários fatores externos que podem interferir com um ambiente de trabalho saudável, como por exemplo o distanciamento físico dos membros, agora tendo que dividir o espaço familiar com o profissional. E manter as pessoas engajadas é algo que deve ter uma grande atenção, é com esse sentimento que os times podem atingir o potencial individual e coletivo. Fazer a gestão dos times de projetos de software, se tornou uma tarefa mais exigente e desafiadora, que envolve pessoas com diferentes habilidades, localidades, expectativas que precisam estar motivadas. Diante dessas diferentes vertentes que se convergem, é preciso que as pessoas possam trabalhar em um ambiente seguro, assim elas podem se desenvolver, trabalhar em equipe, expressar suas opiniões sem medo ou ressalva, dessa forma elas se mantêm motivadas para se desenvolverem como profissionais e com isso contribuir para o bom desenvolvimento do time, ajudando a empresa atingir seus objetivos. Nesse contexto, o trabalho tem como principal objetivo realizar uma análise exploratória sobre os possíveis impactos da falta de segurança psicológica e o baixo engajamento do time. Será feita uma pesquisa aplicada em um caso de uso real, que visa obter como resultado possibilitar construir hipóteses para realizar um planejamento posterior com base nos insights obtidos.FERNANDO JOSÉ ARAÚJO WANDERLEYDISSERTAÇÃO
30
2024ACELERANDO A BUSCA QUÂNTICA: IMPLEMENTAÇÕES PARALELAS DO ALGORITMO DE GROVERTIAGO JORGE CASTANHA DE MORAESGrover; Paralelização; Fidelidade; Circuitos Quânticos.A busca de dados é uma área essencial da computação em grande parte dos projetos. Diversos algoritmos clássicos foram desenvolvidos com o objetivo de otimizá-la. No entanto, ainda hoje, a busca por uma informação pode requerer uma quantidade de iterações linear- mente proporcional ao número de registros. Com o surgimento da computação quântica, a busca de dados também passou por otimizações, principalmente por meio do algoritmo de Grover, no qual a quantidade de iterações necessárias para encontrar um valor é O( √ N), em que N é o número de registros. Apesar de ser um algoritmo estabelecido, ainda existem abordagens que visam otimizar a busca de Grover de diversas formas, destacando-se aquelas que o fazem por meio da paralelização. Este estudo explorou a aplicabilidade do algoritmo de Grover de maneira paralela. Os resultados obtidos mostram que a abordagem exposta pode trazer melhorias para o algoritmo de Grover em relação ao tamanho do circuito, levando a uma diminuição de 30% na quantidade de portas. Isso impacta diretamente a eficiência e a quantidade de recursos necessários. Além disso, foi possível notar uma melhoria na fidelidade dos resultados, com um acréscimo de 65% nas ocorrências do resultado desejado. Dessa forma, diversos outros algoritmos podem ser beneficiados visto a usabilidade do algoritmo de Grover como base ou auxiliar para outros.ERICO SOUZA TEIXEIRADISSERTAÇÃO
31
2024PROPOSTA DE UM MÉTODO PARA GESTÃO DE TURNOVER VOLUNTÁRIO BASEADO EM ANÁLISE PREDITIVAVALÉRIA RODRIGUES DE MOURA SANTANACovid-19; Turnover; Tecnologia da Informação; IA.Empresas brasileiras que realizam como atividade principal o desenvolvimento de softwares, possuem uma característica em comum, que se refere ao alto turnover de seus funcionários. Este fenômeno ocorre devido a diversos fatores, tais como a divergência salarial em funções similares de empresas distintas. Esse alto turnover prejudica o cumprimento de um planejamento estratégico de longo prazo, bem como inviabiliza novos negócios e projetos de software. Desta forma, este trabalho tem como objetivo estudar os dados de turnover de uma empresa de tecnologia da informação no nordeste do Brasil, permeando a época que engloba a pandemia de covid-19, visando propor um processo de gerenciamento de turnover, assistido por um modelo preditivo usando inteligência artificial (IA). A definição do processo foi feita utilizando-se da metodologia de Design Science Research por ser uma abordagem metodológica que orienta como pode-se criar artefatos para resolver determinados problemas em contextos específicos através de um meio sistemático de conhecimento e como resultado esperado serão trazidos os principais fatores que podem ter guiado o turnover voluntário naquela empresa e informações de predição de turnover que devem ser consideradas. Como conclusão espera-se que empresas de software façam uso do processo de gerenciamento do turnover apresentado neste estudo a fim de definirem planos de ação que possam ajudar a retenção de talentos, diminuindo assim o turnover.CESAR FRANÇA (ALBERTO CESAR CAVALCANTI FRANÇA)DISSERTAÇÃO
32
2023FERSI: UMA METODOLOGIA DE APOIO À ESPECIFICAÇÃO DE REQUISITOS PARA O DESENVOLVIMENTO DE SISTEMAS INTELIGENTESVIRGINIA KELLY DE MOURA CARVALHO MESQUITAengenharia de requisitos; engenharia de requisitos para IA; inteligência artificialConstruir sistemas inteligentes certamente vai além do uso de algoritmos de IA específicos, e o próprio ciclo de vida do produto de software está se tornando mais complexo, uma vez que os dados necessários e os algoritmos implementados se tornam dependentes. Estes sistemas necessitam de intervenções nos processos de engenharia de requisitos, especialmente ao lidar com a disponibilidade de conjuntos de dados e desempenho de todo o software e do hardware. Nesse cenário, os processos de requisitos imaturos ou ad-hoc não são considerados como ambiente propício para a introdução única e estruturada da especificação dos requisitos, que pode ser usada como uma forma de apoiar a melhoria da qualidade para sistemas inteligentes. Para a realização desta pesquisa, foi necessário, inicialmente, analisar os benefícios e limitações das técnicas, documentações ou ferramentas existentes para a especificação dos requisitos para sistemas inteligentes nas organizações. A partir de então, sugeriu-se uma proposta para escrever os requisitos funcionais, não funcionais e dos dados no contexto de projeto de desenvolvimento de sistemas que contêm inteligência artificial. Para a execução da pesquisa, foi realizada uma revisão bibliográfica exploratória, para buscar a fundamentação teórica, embasamento da pesquisa e análise de trabalhos relacionados. Após definição da proposta, um grupo focal foi realizado para avaliar a solução e um estudo de caso foi executado, com intuito de validar a proposta. Como resultado, observou-se a abordagem para escrita dos requisitos funcionais, não funcionais e dos dados de forma macro e detalhada, consolidada por meio da Metodologia de Especificação de Requisitos para o Desenvolvimento de Sistemas Inteligentes (FERSI). A proposta consiste em uma metodologia que contempla aspectos como canvas, documentação (template contendo as visões), técnica e suporte (as cartas de ajuda contendo perguntas e respostas), os quais são essenciais para corroborar com a escrita, seja macro ou detalhada, das funcionalidades, de acordo com as necessidades específicas e distintas de cada contexto de projeto. A partir da proposta, a FERSI foi implantada e analisada em um contexto de um estudo de caso, nos quais dados quantitativos e qualitativos foram coletados. Com base na pesquisa, se pôde observar que há uma ausência da especificação dos requisitos dos dados para sistemas inteligentes. A proposta da FERSI, analisada a partir do estudo de caso, pode ser considerada como uma alternativa satisfatória para a introdução e manutenção da atividade de especificação dos requisitos funcionais, não funcionais e dos dados, de forma macro e detalhada, no escopo do projeto de desenvolvimento de sistemas inteligentes.ANA PAULA CARVALHO CAVALCANTIDISSERTAÇÃO
33
2023A IMPORTÂNCIA DA DESCRIÇÃO DO CONTEXTO EM PESQUISAS SOBRE ENSINO EM ENGENHARIA DE SOFTWAREVITOR LUIZ BARRETO DA COSTAensino; engenharia de software; informação de contexto; métodos de pesquisa.A presente pesquisa refere-se ao estudo realizado através de revisões sistemáticas da literatura e entrevistas com pesquisadores da área de ensino em engenharia de software. Por se tratar de uma disciplina que está presente em 90% dos cursos de Tecnologia da Informação, ela se torna muito importante para o desenvolvimento de software, além de melhorar o ensino desta disciplina e formar excelentes profissionais no mercado de trabalho. Atualmente há um aumento considerado em pesquisas no ensino de engenharia de software, e as revisões sistemáticas e entrevistas foram fundamentais para compreender que a falta ou omissão da informação de contexto poderão influenciar a qualidade dos artigos que estão sendo publicados, sendo perceptível que descrever bem o contexto pode contribuir para o conhecimento e replicabilidade da pesquisa. Portanto, esta pesquisa procura fazer o leitor refletir de forma positiva ou negativa sobre até que ponto a ausência da descrição do contexto pode influenciar as pesquisas sobre ensino em engenharia de software. Este estudo também mostrará que nesta área a maioria dos pesquisadores escrevem artigos utilizando métodos de pesquisas como: Estudo de Caso, Experimento, Quase-Experimento e Relatos de Experiência, além de trazer as análises e resultados das informações de contexto mais relevantes e o contexto mais importante que devem estar nas pesquisas de Engenharia de Software.CESAR FRANÇA (ALBERTO CESAR CAVALCANTI FRANÇA)DISSERTAÇÃO
34
2024Aprendizagem de Máquina para Identificação de Crianças no Espectro Autista: Apoio às Instituições de Ensino e Orientação aos PaisADRIANO DA CUNHA MELOTEA; Diagnóstico; Inteligência Artificial (IA); Aprendizagem de Máquina.O Transtorno do Espectro do Autismo (TEA) representa um desafio significativo para crianças, impactando suas habilidades sociais e cognitivas. Entre os estereótipos do TEA, destacam-se comportamentos repetitivos, interesses restritos, dificuldades de comunicação, distúrbios sensoriais e dificuldades na interação social. A detecção precoce do TEA e o início das terapias são essenciais para mitigar sua gravidade e os impactos a longo prazo. Além disso, muitas crianças em idade escolar não têm diagnóstico ainda, o que acarreta em despreparo da equipe pedagógica e falta das adaptações necessária no ambiente escolar em que esse aluno está inserido. No contexto da detecção precoce do TEA, aplicação de técnicas de Inteligência Artificial (IA), especialmente a aprendizagem de máquina (do inglês, Machine Learning - ML) tem se mostrado uma abordagem promissora. E por esse motivo, este estudo objetiva, aplicando técnicas de ML, prover um mecanismo de levantar a hipótese diagnóstica em crianças em idade escolar. Foram considerados datasets amplamente difundidos sobre diagnóstico de TEA (Kaggle e UCI) em crianças, com mais de 1300 registros. Essa abordagem garantiu uma análise abrangente das características relevantes e uma base sólida para o treinamento e teste dos modelos ML, que alcançaram uma taxa de acerto superior a 99% na detecção de TEA em crianças em idade escolar, chegando a 100% de precisão em alguns modelos. Além disso, para apoiar profissionais de educação, pais e/ou responsáveis, foi desenvolvida um MVP (Minimum Viable Product – Produto Mínimo Viável) visando facilitar o uso do modelo de forma mais eficaz por parte do público. A coleta e análise comparativa de dados e modelos ML permitiram identificar fatores associados ao TEA e facilitar o reconhecimento do transtorno em crianças em idade escolar, permitindo assim ações de preparação do ambiente escolar ou de orientação aos responsáveis a buscarem uma validação multiprofissional para confirmar ou não a hipótese, em conjunto com orientações acerca dos cuidados que precisam ser aplicados à criança com TEA.RAFAEL FERREIRA LEITE DE MELLOARTIGO
35
2025MÉTODO DE PRIORIZAÇÃO DE TESTES UNITÁRIOS AUTOMATIZADOS PARA EXECUÇÃO EM SISTEMAS EMBARCADOSJOHNSON TAVARES PINTOTeste de software; Testes de regressão; Método de Priorização de Testes automatizados em Sistemas EmbarcadosO teste de software é essencial para o Ciclo Vida de Desenvolvimento do Software (SLDC), pois é possível melhorar o produto de modo que os requisitos estabelecidos pelo cliente sejam atendidos. Dentro da SLDC existe a SLTC (Ciclo de Desenvolvimento de Teste de software), que consiste em aplicar vários tipos de teste no software utilizando um ambiente específico. Conforme a entrega das funcionalidades ocorrem, os testes vão aumentando em quantidade e complexidade, tornando-se cada vez mais importante a execução de testes de regressão. Entretanto, o teste de regressão é um teste normalmente repetitivo e custa um tempo consi- derável para execução. Testes de regressão manuais precisam da máxima intervenção humana e custam mais tempo para execução. Testes de regressão automatizados demandam tempo para o desenvolvimento, pois é necessária a codificação utilizando alguma biblioteca de testes específica, e depende do grau de complexidade do teste que será realizado. Um problema co- mum que ocorre na SLTC é a demora para identificação das falhas no software, que podem se acumular ou ocorrerem em momentos inesperados, causando prejuízos para a organização. Logo, torna-se viável o uso de um método de priorização de teste para execução com a expec- tativa de aumentar a confiabilidade do software. Este trabalho tem por finalidade apresentar um método de priorização de testes automatizados para execução em sistema embarcado da família ESP32, utilizando critérios estabelecidos por especialistas da área de tecnologia. A me- todologia adotada concentrou-se no levantamento das métricas de priorização, entrevista com especialistas, experimento e análise dos resultados obtidos. A pesquisa envolveu a aplicação de critérios como Quantidade de Defeitos Descobertos (QDD), Tempo Médio de Execução (TME), Prioridade do Cliente (PC) e Fator de Exposição de Risco (FER), adaptando-os para o contexto de sistemas embarcados. O experimento, realizado no ambiente de testes com o microcontrolador ESP32, demonstrou a viabilidade do método proposto. A priorização dos módulos de teste identificou o módulo RTC (Real Time Clock) como o mais crítico, alinhando- se com a constatação de que este módulo apresentava o maior número de falhas. A análise dos resultados por um especialista da área de QA (Garantia de Qualidade) confirmou que o método contribui para a manutenção e melhoria dos testes automatizados.WASHINGTON HENRIQUE CARVALHO ALMEIDADISSERTAÇÃO
36
2025ANÁLISE PREDITIVA DE ATAQUES DDOS COM MODELOS DE APRENDIZADO DE MÁQUINALUIZ HUMBERTO BARROSO DO PATROCINIOCibersegurança; Aprendizado de máquina; DDoS; Detecção de ataques DDoS; Segurança da informação.Os ataques de inundação de negação de serviço distribuída Negação de serviço distri- buída (DDoS) representam preocupações para instituições, empresas, órgãos governamentais e profissionais da área de segurança cibernética. Tais ataques, meticulosamente orquestrados, têm como objetivo clássico negar o acesso legítimo aos serviços online, valendo-se, frequente- mente, de dispositivos comprometidos pelos invasores (Redes de computadores ou dispositivos comprometidas pelos invasores (BOTNET)). Por outro lado, a Inteligência Artificial tem pro- porcionado ganhos significativos em diversas áreas, incluindo a cibersegurança. Este trabalho examina como o uso de técnicas de Aprendizado de Máquina (AM) pode melhorar a detecção de ataques DDoS. Para isso, usamos um conjunto de dados público amplamente reconhecido como fonte confiável e realista. Propõe-se uma abordagem experimental, baseada na análise do conjunto de dados mencionado acima e na utilização de diversos modelos de AM, como árvores de decisão, boosting, redes neurais e modelos lineares. Esta pesquisa também buscou responder quais modelos melhor detectam os ataques DDoS, combinando análises e técnicas avançadas para promover estratégias de detecção e defesa mais eficazes. Ao unir rigor analítico e prática de Inteligência Artificial (IA), o estudo apresenta experimentos importantes no uso de melhores técnicas para ter ótimos resultados com o dataset público que demonstra a realidade de um ataque DDoS. Por fim, duas bases de dados foram desenvolvidas pelo autor: uma com acessos normais e outra com ataques DDoS. Ambas as bases de dados foram processadas pelos modelos, que extraíram e aprenderam as características dos ataques. Os modelos apresenta- ram acurácia e precisão em média acima dos 95% na detecção de ataques ao serem avaliados com dados inéditos. Esses resultados demonstram a eficiência da abordagem proposta para identificar ataques com base nos padrões analisados.RAFAEL FERREIRA LEITE DE MELLODISSERTAÇÃO
37
2024AVALIAÇÃO DE MODELOS DE GERAÇÃO MUSICAL NO ESTILO FREVO POR REDES NEURAISLUCAS ANDRADE ABRÃOáudio; deep learning; inteligência artificial; métricas; redes neurais.Explorando a convergência entre avanços em Inteligência Artificial e expressão musical, este estudo tem por objetivo investigar a aplicação de técnicas avançadas de Deep Learning no contexto de geração automática de músicas. Com ênfase em modelos como LSTM, WaveGAN, CNN, Autoencoders e GRU, a pesquisa visa à criação de séries temporais de áudio, com o objetivo de compor músicas no estilo Frevo - um gênero musical autêntico e influente no Nordeste do Brasil. A base de dados, composta por 30 músicas de Frevo, servirá como peças- chave para o treinamento das redes neurais. A avaliação do desempenho das redes foi realizada por meio de métricas como MAE, MSE, RMSE, SNR e PSNR, complementadas por métricas espectrais, avaliação visual, SPL e SNDR, proporcionando uma análise abrangente da qualidade das séries temporais de áudio geradas. Ao final, foram realizadas análises e validações do desempenho de cada rede neural utilizando os mesmos hiperparâmetros ou dados próximos baseados em sua arquitetura, respectivamente. Essas análises mostraram que algumas redes têm uma geração de áudio melhor e mais próxima da realidade (como a rede GRU) do que outras (como os Autoencoders), com base nos valores atribuídos aos hiperparâmetros neste estudo. O estudo destaca não apenas a capacidade das redes neurais na criação personalizada de conteúdo musical, mas também busca enriquecer a expressividade artística ao conectar inovações tecnológicas à rica e única tradição musical do Frevo. Assim, ao ajudar as pessoas a compor músicas no estilo Frevo utilizando a assistência da inteligência artificial, o estudo aponta para a importância de identificar a melhor rede neural para esse fim entre as redes neurais analisadas pelas métricas utilizadas neste estudo.ANDRÉ CÂMARA ALVES DO NASCIMENTODISSERTAÇÃO
38
2024COMPARANDO MUNDOS PARALELOS: ALGORITMOS CLÁSSICOS E QUÂNTICOS NA CLASSIFICAÇÃO DE IMAGEM PARA DETECÇÃO DE COVID-19LUIZ FRANCISCO MARTINS BENTESComputação Quântica; Visão Computacional; Detecção de Covid-19; Algoritmos quânticos.No caótico ano de 2020, a humanidade foi inesperadamente assolada por uma ameaça devastadora: a SARS-CoV-2, também conhecida como COVID-19. Durante a pandemia, equipes multidisciplinares foram montadas para controlar e detectar a doença, incluindo cientistas da computação que contribuíram significativamente no diagnóstico por meio de pesquisas de visão computacional aplicada. A computação quântica emergiu como uma área promissora, prometendo realizar tarefas consideradas demoradas e impossíveis para os computadores clássicos atuais. Esta pesquisa investiga a utilização da computação quântica em aplicações de aprendizado de máquina para a classificação de imagens, com o objetivo de detectar doenças pulmonares. Utilizando uma abordagem exploratória, a metodologia de pesquisa inclui a implementação e comparação de algoritmos clássicos e quânticos em laboratórios virtuais de controle e teste. Os resultados obtidos demonstram uma melhoria significativa nas métricas de desempenho e eficiência dos modelos quânticos em comparação aos modelos clássicos, oferecendo um caminho promissor para evitar futuras catástrofes similares à COVID-19.RICARDO CESAR DE ANDRADEDISSERTAÇÃO
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
OSZAR »