Navegando por Assunto "Aprendizado de máquina"
Agora exibindo 1 - 20 de 26
- Resultados por página
- Opções de Ordenação
Dissertação Acesso aberto (Open Access) 5G MIMO and LIDAR data for machine learning: mmWave beam-selection using deep learning(Universidade Federal do Pará, 2019-08-29) DIAS, Marcus Vinicius de Oliveira; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284Sistemas de comunicação modernos podem explorar o crescente número de dados de sensores usados atualmente em equipamentos avançados e reduzir a sobrecarga associada à configuração de links. Além disso, a crescente complexidade das redes sugere que o aprendizado de máquina, como redes neurais profundas, podem ser utilizadas efetivamente para melhorar as tecnologias 5G. A falta de grandes conjuntos de dados dificulta a investigação da aplicação de aprendizado profundo na comunicação sem fio. Este trabalho apresenta uma metodologia de simulação (RayMobTime) que combina um simulador de tráfego de veículos (SUMO) com um simulador de ray-tracing (Remcom’s Wireless InSite), para gerar canais que representem cenários 5G realísticos, bem como a criação de dados de sensores LIDAR (através do Blensor). O conjunto de dados criado é utilizado para investigar técnicas de beam selection de veículo para infraestrutura usando ondas milimétricas em diferentes arquiteturas, como arquitetura distribuída (uso das informações de apenas um veículo selecionado e processamento de dados no veículo) e arquiteturas centralizadas (uso de todas as informações presentes fornecidas pelos sensores em um dado momento, processando na estação base). Os resultados indicam que redes neurais profundas convolucionais podem ser utilizadas para beam selection sob uma estrutura de classificação de top-M. Também mostra que uma arquitetura distribuída baseada em LIDAR fornece desempenho robusto independentemente da taxa de penetração de veículos, superando outras arquiteturas, bem como pode ser usada para detecção de visada direta com precisão razoável.Tese Acesso aberto (Open Access) Abordagem Inteligente com Combinação de Características Estruturais para Detecção de Novas Famílias de Ransomware(Universidade Federal do Pará, 2024-03-22) MOREIRA, Caio Carvalho; SALES JUNIOR, Claudomiro de Souza de; País de Nacionalidade BrasiRansomware é um software malicioso que tem como objetivo criptografar os arquivos do usuá- rio e exigir um resgate para desbloqueá-los. Trata-se de uma ameaça cibernética que pode causar significativos danos financeiros, além do comprometimento de privacidade e integridade dos dados. Embora os scanners de detecção baseados em assinaturas comumente combatam essa ameaça, eles falham na identificação de famílias (variantes) desconhecidas de ransomware. Um método para detectar novas ameaças sem a necessidade de executá-las é a análise estática, que inspeciona o código e a estrutura do software, juntamente com a classificação através de abordagens inteligentes. A Detecção de Novas Famílias de Ransomware (DNFR) pode ser avaliada em um cenário realista e desafiador pela categorização e isolamento de famílias para treinamento e teste. Desta forma, o objetivo desta tese é desenvolver um modelo eficaz de análise estática para a DNFR, que pode ser aplicado em sistemas Windows como uma camada adicional de segurança para verificar os arquivos executáveis no momento do recebimento ou antes de sua execução. A detecção precoce do ransomware é fundamental para reduzir a probabilidade de um ataque bem-sucedido. A abordagem proposta analisa abrangentemente os binários executá- veis, ao extrair e combinar diversas características estruturais, e os distingue entre ransomware ou software benigno empregando um modelo de votação suave que compreende três técnicas de Aprendizado de Máquina: Logistic Regression (LR), Random Forest (RF) e eXtreme Gradient Boosting (XGB). Os resultados para a DNFR demonstraram médias de 97,53% de acurácia, 96,36% de precisão, 97,52% de recall e 96,41% de F-measure. Além disso, a varredura e a predição de amostras individuais levaram uma média de 0,37 segundos. Essa performance indica sucesso na identificação rápida de variantes desconhecidas de ransomware e na adaptabilidade do modelo ao cenário em constante evolução, o que sugere sua aplicabilidade em sistemas de proteção antivírus, mesmo em dispositivos com recursos limitados. Portanto, o método oferece vantagens significativas e pode ajudar desenvolvedores de sistemas de detecção de ransomware na criação de soluções mais resilientes, confiáveis e com rápido tempo de resposta.Dissertação Acesso aberto (Open Access) Análise e classificação de severidade de COVID-19 usando aprendizado de máquina(Universidade Federal do Pará, 2022-08-16) LIMA, Marco Antonio Loureiro; CARDOSO, Diego Lisboa; http://lattes.cnpq.br/0507944343674734Nos últimos anos, com o crescimento alarmante de casos de COVID-19, uma doença viral altamente contagiosa, fez-se necessário novas formas de diagnóstico e controle desta enfermidade a fim de que a sua propagação seja reduzida até que a população seja vacinada efetivamente. Neste contexto, Inteligência Artificial (IA) e seus subcampos surgem como possíveis alternativas para auxiliar no combate da doença por meio de análises de sintomas relacionados a esta patologia. Alguns métodos de Aprendizado de Máquina (AM) são mostrados como resposta para essa doença, contribuindo com a análise baseada em um conjunto de sintomas apresentados pelo paciente e consequentemente auxiliando o diagnóstico, bem como agilizando o processo de tratamento. Para atingir esse objetivo são propostos três modelos que utilizam esses métodos de AM para predizer a severidade de COVID-19 em graus distintos. Os resultados em cada um destes modelos são avaliados através de métricas estabelecidas ao longo deste trabalho. No mais, diferentes sugestões são mostradas para melhorar a análise e realizar predições com maior acurácia.Dissertação Acesso aberto (Open Access) Aplicação e comparação de técnicas de classificação automática de documentos: um estudo de caso com o dataset do domínio jurídico “Victor”(Universidade Federal do Pará, 2024-02-01) MARTINS, Victor Simões; SILVA, Cleison Daniel; http://lattes.cnpq.br/1445401605385329; https://orcid.org/0000-0001-8280-2928A aplicação do Processamento de Linguagem Natural (PLN) e Inteligência Artifical (IA) no contexto jurídico brasileiro é uma área em franco crescimento, que pode alterar o modo e rotina de trabalho dos profissionais da área, dada a quantidade de texto gerada. Dentre as possibilidades de aplicação da PLN e IA há a classificação automática de documentos, que dentre outras, pode ser empregada na automatização do processo de digitalização de Processos Judiciais que ainda estão apenas em meio físico. Assim, este trabalho aplica e compara algoritmos de IA para a classificação de documentos jurídicos. Os algoritmos são divididos em duas Abordagens diferentes, a primeira (I) separa o processo representação computacional do texto do treinamento do classificador em si aplicando SVM e Regressão Logística em conjunto com representações computacionais baseadas em: TF-IDF, Word2Vec, FastText e BERT. A segunda Abordagem (II) realiza em conjunto a representação computacional dos documentos e o treinamento do classificador, e para tal são aplicados algoritmos de Deep Learning baseados em redes neurais recorrentes, especificamente o ULMFiT (Universal Language Model Fine-tuning) e HAN (Hierarchical Attention Networks). O Dataset estudado é denominado VICTOR, composto por documentos do Supremo Tribunal Federal (STF) do Brasil. A pesquisa conclui pela possibilidade de aplicação de ambas abordagens para a classificação de documentos jurídicos do Dataset empregado, bem como, apesar de menos custosos computacionalmente, os pipelines de classificação da Abordagem I que empregam a representação computacional do documento com TF-IDF apresentam resultados equivalentes aos pipelines que empregam Deep Learning. Além disso, a especialização da representação computacional dos documentos com os dados do dataset em estudo, melhoram o desempenho dos pipelines que empregam Word2Vec, FastText e ULMFiT, quando comparados aos pipelines que aplicam as representações genéricas desses, ou seja, modelos pré-treinados com dados do contexto geral.Dissertação Acesso aberto (Open Access) Arquitetura de modelos híbridos, machine learning e otimizadores para análise de consumo de energia elétrica e produtividade em pintura automotiva(Universidade Federal do Pará, 2024-03-27) OLIVEIRA, Rafael Barbosa de; OLIVEIRA, Roberto Célio Limão de; http://lattes.cnpq.br/4497607460894318Estratégias de otimização de consumo energético nas etapas de pintura emergem como fatores primordiais para promover uma produção mais sustentável e competitiva no setor automotivo. Esta dissertação busca prever o consumo energético e maximizar a produtividade na pintura automotiva, utilizando uma abordagem que combina seleção de variáveis, modelos híbridos, hiperparâmetros destes modelos e otimização por meta-heurística em uma arquitetura com 3 etapas. Os processos de pintura automotiva apresentam variáveis em forma de séries temporais que descrevem o histórico do consumo de energia. Na etapa 1, escolhe-se o melhor modelo de aprendizado de máquina (Random Forest, Long-Short Term Memory, XGBoost e GRU-LSTM) para prever séries temporais do consumo energético em t+1. Na etapa 2, avalia-se os modelos RF, XGBoost e Rede Neural Artificial (RNA) Densa para selecionar o melhor preditor de quantidade de veículos produzidos (ciclos). Na etapa 3, seleciona-se a melhor meta-heurística entre Genetic Algorithm (GA), Differential Evolution (DE) e Particle Swarm Optimization (PSO) para otimizar o consumo energético previsto pelo melhor modelo do step 1, usando como medida de fitness o melhor modelo do step 2. A arquitetura final reduziu a energia consumida em até 16% e aumentou o ciclo em 127%, usando os modelos GRU-LSTM na etapa 1, RNA Densa na etapa 2 e DE no etapa 3. Os resultados ressaltam a oportunidade de uso da abordagem proposta para otimizar o consumo de enrgia e a produtividade na pintura automotiva.Dissertação Acesso aberto (Open Access) Beam-selection otimizado por aprendizado de máquina : uma abordagem multimodal(Universidade Federal do Pará, 2023-12-30) FERREIRA, Jamelly Freitas; GOMES, Diego de Azevedo; http://lattes.cnpq.br/5116561408505726; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284Esta dissertação tem como objetivo investigar a utilização de modelos de aprendizado de máquina usando dados multimodais como entrada para otimizar o processo de “Beam-Selection”em redes baseadas em ondas milimétricas. O uso de Deep Learning tem se intensificado em diferentes áreas, sendo possível obter performance igual ou superior à humana, desta forma seu uso mostra-se promissor também em cenários de comunicação sem fio. Neste trabalho foram usados dados de diferentes naturezas o que se mostrou conveniente ao passo que é possível ajustar o modelo de acordo com a qualidade/disponibilidade destes dados. Após execução dos experimentos, e obtencão dos resultados, foi observado que é possível obter significativa performance em diferentes métricas, mesmo com dados mais simples como Imagem e Coordenada.Dissertação Acesso aberto (Open Access) Classificação de eletroencefalogramas epiléticos em estado de repouso com aplicação de classificadores lineares e um atributo derivado da densidade espectral de potência(Universidade Federal do Pará, 2019-12-04) FIEL, José de Santana; PEREIRA JÚNIOR, Antonio; http://lattes.cnpq.br/3239362677711162Milhões de brasileiros são afetados pela epilepsia e o acesso ao diagnóstico precoce é crucial para o seu tratamento adequado. No entanto, o diagnóstico de epilepsia depende da avaliação de registros eletroencefalográficos (EEG) de longa duração realizados por profissionais treinados, transformando-o em um processo oneroso que não está imediatamente disponível para muitos pacientes no Brasil. Assim, o presente trabalho propõe uma metodologia para a classificação automática do EEG de indivíduos epiléticos, que utiliza registros de EEG de curta duração obtidos com o paciente em repouso. O sistema é baseado em algoritmos de aprendizado de máquina que usam um atributo extraído da densidade espectral de potência dos sinais de EEG. Esse atributo é uma estimativa da conectividade funcional entre os pares de canais de EEG e é chamado debiased weighted phase-lag index (dWPLI). Os algoritmos de classificação foram análise discriminante linear (LDA) e máquinas de vetores de suporte (SVM). Os sinais de EEG foram adquiridos durante o estado interictal, isto é, entre convulsões e não tinham atividade epileptiforme. Registros EEG 11 pacientes epiléticos e 7 indivíduos saudáveis foram utilizados para avaliar o desempenho do método proposto. Ambos os algoritmos atingiram seu desempenho máximo de classificação, 100 % de precisão e área sob a curva de característica de operação do receptor (AUROC), quando um vetor de característica com 190 atributos foi usado como entrada. Os resultados mostram a eficácia do sistema proposto, dado seu alto desempenho de classificação.Dissertação Acesso aberto (Open Access) Classificação de ransomware utilizando MLP, redução de dimensionalidade e balanceamento de classes(Universidade Federal do Pará, 2023-07-03) PEREIRA, George Tassiano Melo; SALES JÚNIOR, Cloaudomiro de Souza de; http://lattes.cnpq.br/4742268936279649Ransomware é um tipo de malware que impede ou limita o acesso do usuário ao sistema e arquivos até que um resgate seja pago. Combater essa ameaça é difícil devido à sua disseminação rápida e às constantes mudanças nas técnicas de criptografia utilizadas. Algoritmos de aprendizado de máquina, como Redes Neurais Artificiais, têm sido apontados como ferramentas promissoras na classificação de ransomware, porque elas podem aprender a identificar padrões e características complexas em grandes quantidades de dados. Isso permite que as redes neurais sejam treinadas com exemplos de amostras de software malicioso, incluindo ransomware, e depois sejam capazes de classificar novos exemplos com alta precisão. Além disso, as redes neurais também são capazes de aprender e se adaptar a mudanças no comportamento do malware, tornando-as ferramentas eficazes para a detecção de novos tipos de ransomware. Neste trabalho, é explorado três tipos de classificação de ransomware por RNA dentro de um pipeline composto com redução de dimensionalidade por Kernel PCA e balanceamento de classes com a abordagem de superamostragem aleatória. A MLP ( Multi-layer Perceptron) alcançou uma média de 98% de acurácia na classificação binária e 85% de acurácia na classificação de família com goodware, onde tais valores superam os resultados anteriores e demonstram assim a eficácia da inclusão do balanceamento de classes na melhoria do modelo de detecção de ransomware.Dissertação Acesso aberto (Open Access) Clusterização de padrões espaço-temporais de precipitação na Amazônia via deep convolutional autoencoder(Universidade Federal do Pará, 2023-07-07) SILVA, Vander Augusto Oliveira da; TEIXEIRA, Raphael Barros; http://lattes.cnpq.br/4902824086591521; https://orcid.org/0000-0003-2993-802XEstudos utilizando diferentes métodos de aprendizado de máquina para descoberta de conhecimento e reconhecimento de padrões em séries temporais de precipitação são cada vez mais frequentes na literatura. Identificar e analisar padrões em séries temporais de precipitação em uma determinada região é fundamental para seu desenvolvimento socioeconômico. Logo, pode-se afirmar que o conhecimento e compreensão das características pluviométricas das regiões são importantes para viabilizar o planejamento do uso, manejo e conservação dos recursos hídricos. O fenômeno natural da precipitação é um processo fundamental de impacto direto nas bacias hidrográficas e no desenvolvimento humano e ambiental. A variabilidade desse fenômeno produz implicações importantes na navegabilidade dos rios, sobre a abundância do indivíduo e a riqueza das espécies. Nos últimos anos muitos estudos com essa abordagem foram realizados no Brasil, principalmente na região amazônica. Esta pesquisa teve como objetivo desenvolvimento de um método computacional para análise de séries temporais de precipitação utilizando técnicas de machine learning com aprendizado não supervisionado, afim de propor um método capaz de realizar a extração de características complexas dos dados, obtendo um mapa de atributos em baixa dimensionalidade para reconhecimento de padrões, descoberta de regiões homogêneas com relação à precipitação e reconstrução aproximada de séries temporais de precipitação da Amazônia Legal. O modelo de rede neural de aprendizado profundo proposto é treinado para aprender as principais e mais complexas características dos dados originais e apresentá-los em baixa dimensionalidade no espaço latente. Após o treinamento os resultados se mostram promissores, as observações dos dados reconstruídos apresentaram um bom desempenho conforme avaliação da métrica de RMSE e NRMSE com valores resultantes iguais a 0.06610 e 0.3355 respectivamente. A análise da representação dos dados em baixa dimensão foi aplicada e analisada por uma estrutura de clustering usando aglomerativo hierárquico com método de Ward. Essa metodologia também apresentou bons resultados, pois realizou agrupamentos consistentes caracterizando regiões homogêneas com relação aos dados de precipitação. Desta forma, demonstrando que a representação em baixa dimensionalidade carregava as características principais das séries temporais dos dados analisados. Destaca-se que o método desenvolvido nesse estudo pode ser aplicado não apenas na região amazônica, mas também em outras áreas com desafios semelhantes relacionados à análise de séries temporais.Dissertação Acesso aberto (Open Access) Conversão grafema-fone para um sistema de reconhecimento de voz com suporte a grandes vocabulários para o português brasileiro(Universidade Federal do Pará, 2006-06-12) HOSN, Chadia Nadim Aboul; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284O processamento de voz tornou-se uma tecnologia cada vez mais baseada na modelagem automática de vasta quantidade de dados. Desta forma, o sucesso das pesquisas nesta área está diretamente ligado a existência de corpora de domínio público e outros recursos específicos, tal como um dicionário fonético. No Brasil, ao contrário do que acontece para a língua inglesa, por exemplo, não existe atualmente em domínio público um sistema de Reconhecimento Automático de Voz (RAV) para o Português Brasileiro com suporte a grandes vocabulários. Frente a este cenário, o trabalho tem como principal objetivo discutir esforços dentro da iniciativa FalaBrasil [1], criada pelo Laboratório de Processamento de Sinais (LaPS) da UFPA, apresentando pesquisas e softwares na área de RAV para o Português do Brasil. Mais especificamente, o presente trabalho discute a implementação de um sistema de reconhecimento de voz com suporte a grandes vocabulários para o Português do Brasil, utilizando a ferramenta HTK baseada em modelo oculto de Markov (HMM) e a criação de um módulo de conversão grafema-fone, utilizando técnicas de aprendizado de máquina.Tese Acesso aberto (Open Access) Custo de oportunidade (trade-off) para diferentes estratégias de manutenção de trilhos ferroviários na Amazônia(Universidade Federal do Pará, 2022-12-22) CURCINO, Gabrielle dos Anjos; BRAGA, Eduardo de Magalhães; http://lattes.cnpq.br/4783553888547500A manutenção emergencial dos ativos ferroviários na Amazônia brasileira tem gerado perdas de receita e custos de oportunidade. O objetivo geral deste estudo foi identificar a importância do custo de oportunidade na tomada de decisão para estratégias de manutenção corretiva e preventiva. A metodologia propôs a modelagem das variáveis referentes aos dados econômicos e operacionais da manutenção ferroviária nos últimos dez anos, por aprendizado de máquina não paramétrico Gradient Boosting Regression Tree, e hibridizando-o com a análise do custo de oportunidade para o trade-off decisão de uma ferrovia de minério na Amazônia brasileira. Os resultados mostraram que o GBDT foi eficiente em ajustar os dados de treinamento com r2 igual a um. Da mesma forma, os dados do teste apresentaram valores de r2 satisfatórios, próximos a um, onde se obteve o grau de importância das variáveis independentes na predição das variáveis dependentes. O método de Pearson foi utilizado para construir a matriz de correlação para cada par de variáveis. A partir do modelo gerado, foram criados oito grupos de previsão para o ano de 2022. Em seguida, foram estabelecidos níveis de conflito, sugeridos pela literatura econômica, entre os cenários de previsão, onde o custo de oportunidade foi identificado entre as alternativas com melhor benefício às estratégias de manutenção. Dessa forma, o custo de oportunidade aliado ao aprendizado de máquina serve como um instrumento para auxiliar as empresas na busca por melhores decisões de manutenção, o que contribui para o aprimoramento da gestão dos ativos ferroviários. O estudo do custo de oportunidade a partir de uma análise trade off baseada em predições do custo das estratégias de manutenção através da modelagem por Machine Learning - Gradient Boosting Regression é um objetivo inédito na literatura.Dissertação Acesso aberto (Open Access) Desenvolvimento de sistema de diagnóstico de falhas em roletes de transportadores de correia(Universidade Federal do Pará, 2024-03-28) SOARES, João Lucas Lobato; MESQUITA, Alexandre Luiz Amarante; http://lattes.cnpq.br/3605920981600245; https://orcid.org/0000-0001-5605-8381Os transportadores de correia são equipamentos essenciais na indústria de mineração e requerem monitoramento constante para manter uma boa confiabilidade. Com o objetivo de suportar a correia e o material transportado, os roletes são componentes que, constantemente, falham durante a operação, nos quais apresentam defeitos nos rolamentos e desgaste superficial na concha como modos de falha mais comuns. Assim, o monitoramento baseado em manutenção preditiva é essencial, e técnicas de aprendizado de máquina podem ser utilizadas como alternativa para detecção de falhas em equipamentos. Em diagnósticos utilizando aprendizado de máquina, a etapa de seleção de features é importante para evitar a perda de precisão na classificação da condição do equipamento. O presente estudo analisa o desempenho do algoritmo de árvore de decisão e Análise de Variância (ANOVA) como métodos alternativos para redução de dimensionalidade. Inicialmente, os sinais de vibração foram coletados nos roletes de uma bancada de transportador de correia e a Wavelet Packet Decomposition (WPD) foi aplicada aos sinais para obtenção das faixas de energia, que foram utilizadas como features para classificação. Após a determinação das melhores features, duas abordagens foram analisadas para seleção de características: uma com a aplicação do método sem redução de dimensionalidade e outra com a aplicação da árvore de decisão. Adicionalmente, foram empregados diferentes algoritmos de classificação: Máquina de Vetores de Suporte (SVM), k-ésimo Vizinho mais Próximo (kNN) e Rede Neural Artificial (ANN). Como resultados, constatou-se um desempenho superior de acurácia diagnóstica em todas as técnicas com redução de dimensionalidade das características selecionadas pela árvore de decisão. Além disso, SVM, kNN e ANN apresentaram aumentos de acuracidade dentre os modelos de diagnóstico de falha abordados.Dissertação Acesso aberto (Open Access) Detecção e rastreamento de componentes de vagões ferroviários utilizando redes neurais convolucionais e restricões geométricas(Universidade Federal do Pará, 2020-04-27) GONÇALVES, Camilo Lélis Assis; BARROS, Fabrício José Brito; http://lattes.cnpq.br/9758585938727609A inspeção de componentes de trem que podem causar descarrilamento possui um papel importante na manutenção ferroviária. A fim de aumentar a produtividade e a segurança, empresas prestadoras de serviços procuram por soluções de inspeção automáticas e confiáveis. Apesar da inspeção automática baseada em visão computacional ser um conceito consolidado, tais aplicações desafiam a comunidade de desenvolvimento em razão de fatores ambientais e logísticos a serem considerados. Este trabalho propõe uma técnica de detecção e estimativa das posições das regiões de dreno presentes em vagões de trem. Nosso detector/rastreador consiste em uma rede neural convolucional e um conjunto de restrições geométricas, que levam em conta a trajetória ideal dos componentes de interesse dos vagões e as distâncias entre eles. Detalhamos os procedimentos de treinamento e validação, juntamente com as métricas utilizadas para aferir a performance do sistema proposto. Os resultados apresentados são comparados com outras duas técnicas, e exibem um bom custo‑benefício entre confiança e complexidade computacional para a detecção dos componentes de interesse.Tese Acesso aberto (Open Access) Development of machine learning-based frameworks to predict permeability of peptides through cell membrane and blood-brain barrier(Universidade Federal do Pará, 2024-03-27) OLIVEIRA, Ewerton Cristhian Lima de; LIMA, Anderson Henrique Lima e; http://lattes.cnpq.br/2589872959709848; https://orcid.org/0000-0002-8451-9912; SALES JUNIOR, Claudomiro de Souza de; http://lattes.cnpq.br/4742268936279649Peptídeos compreendem uma classe versátil de biomoléculas com diversas propriedades físicoquímicas e estruturais, além de inúmeras aplicações farmacológicas e biotecnológicas. Alguns grupos de peptídeos podem cruzar membranas biológicas, como a membrana celular e a barreira hematoencefálica humana. Pesquisadores tem explorado esta propriedade ao longo dos anos como uma alternativa ao desenvolvimento de novos medicamentos mais poderosos, tendo em vista que alguns peptídeos são carreadores de fármacos. Embora existam ferramentas baseadas em aprendizado de máquina desenvolvidas para prever cell-penetrating peptides (CPPs) e blood-brain barrier penetrating peptides (B3PPs), alguns pontos ainda não foram explorados dentro deste tema. Estes pontos abrangem o uso de técnicas de redução de dimensionalidade (RD) na etapa de pré-processamento, de descritores moleculares relacionados à biodisponibilidade de drogas, e de estrutura de dados que codificam peptídeos com modificações químicas. Portanto, a proposta principal desta tese é desenvolver e testar dois frameworks baseados em RD, o primeiro para prever CPPs e o segundo para prever B3PPs, avaliando também os descritores moleculares e estrutura de dados de interesse. Os resultados desta tese mostram que para a predição de penetração na membrana celular, o framework proposto atingiu 92% de acurácia no melhor desempenho em um teste independente, superando outras ferramentas criadas para o mesmo propósito, além de evidenciar a contribuição entre a junção de descritores baseado em sequência de aminoácidos e os relacionados a biodisponibilidade e citados na regra dos cinco de Lipinski. Além do mais, a predição de B3PPs pelo framework proposto revela que o melhor modelo que utiliza descritores moleculares estruturais, elétricos e associados a biodisponibilidade de compostos alcançou valores que superam 93% de acurácia média no 10-fold cross-validation e acurácia entre 75% e 90% no teste independente para todos as simulações, superando outras ferramentas de machine learning (ML) desenvolvidas para predizer B3PPs. Estes resultados mostram que os frameworks propostos podem ser usado como ferramenta adicional na predição de penetração de peptídeos através dessas duas biomembranas e estão disponíves como web servers gratuitos para uso.Dissertação Acesso aberto (Open Access) Dimorfismo sexual da espessura da retina: uma análise de aprendizagem de máquina(Universidade Federal do Pará, 2022-03) FARIAS, Flavia Monteiro; SALOMÃO, Railson Cruz; http://lattes.cnpq.br/9518575270670446; SOUZA, Givago da Silva; http://lattes.cnpq.br/5705421011644718; https://orcid.org/0000-0002-4525-3971A presente pesquisa comparou a acurácia dos algoritmos de aprendizado de máquina em classificar as medidas de espessura e volume das camadas retinianas como obtidas de sujeitos do sexo masculino e do sexo feminino. O estudo avaliou a retina de 64 participantes saudáveis (38 mulheres e 26 homens), de visão normal e sem doenças oculares ou sistêmicas, pertencentes a faixa etária de 20 a 40 anos. Os dados foram obtidos com o tomógrafo Spectralis HRA+OCT na região macular da retina e de suas camadas: camada de fibras nervosas retinianas (CFNR), camada de células ganglionares (CCG), camada plexiforme interna (CPI), camada nuclear interna (CNI), camada plexiforme externa (CPE), camada nuclear externa (CNE), epitélio pigmentar retiniano (EPR), retina interna (RI) e retina externa (RE). A acurácia de classificação foi obtida com os algoritmos: support vector classifier (SVC), logistic regression (LR), linear discrimant analyses (LDA), k- nearest neighbors (kNN), decision tree (DT), gaussian naive bayes (GNB) e random forest (RF). As características atribuídas as amostras de cada participante foram os valores de espessura nas nove regiões da mácula mais o volume macular total de cada camada retiniana. O ANOVA dois critérios e Tukey HSD post-hoc foram utilizados nas comparações estatísticas entre as acurácias para as variáveis classificador e camada retiniana, considerando o nível de significância de < 0,05. Todos os fatores (classificador, camada retiniana e suas interações) tiveram influências significativas nas acurácias (p < 0,05). O efeito principal do fator tipo de algoritmo resultou em uma razão F de F (6, 630) = 4,527, p = 0,0002. O principal efeito para a camada retiniana produziu uma razão F de F (9, 630) = 51,64 e p <0,0001. O efeito de interação também foi significativo, F (54, 630) = 1,741, p = 0,0012. Todos os algoritmos classificaram alta acurácia (> 0,70) as camadas mais internas da retina (retina total, retina interna, CFNR, CCG, CNI) quanto ao sexo dos participantes, onde foram observadas diferenças significativas entre os sexos nas medidas de espessura e volume. Os algoritmos SVC, LDA e LR produziram alta acurácia (> 0,70) quando os dados de espessura e volume vieram da CFNR em comparação as camadas mais externas da retina. Já os algoritmos KNN, RF e DT tiveram melhor desempenho em classificar corretamente os dados da retina total em relação as camadas mais externas. A espessura e o volume da retina e das camadas mais internas da retina permitem que algoritmos de aprendizado de máquina tenham maior acurácia para separar dados dos diferentes sexos.Tese Acesso aberto (Open Access) Identificação de sistemas multiforças a partir de dados de vibração e técnicas de aprendizado de máquinas(Universidade Federal do Pará, 2024-11-07) PINHEIRO, Giovanni de Souza; NUNES, Marcus Vinícius Alves; http://lattes.cnpq.br/9533143193581447O surgimento de defeitos em componentes dinâmicos, tende a produzir alterações nas forças geradas e podem ser detectadas por meio do espectro de resposta à vibração do equipamento. Compreender as forças que atuam sobre uma estrutura é extremamente importante, especialmente nos casos em que os pontos de medição são limitados ou inacessíveis, pois permite avaliar, entre outros fatores, se a vida útil dos componentes está comprometida pela condição atual da máquina. Nesses casos, um problema inverso precisa ser resolvido. As técnicas de Aprendizado de Máquinas vêm se destacando como uma poderosa ferramenta de predição dentre as soluções desenvolvidas para esse tipo de problema, sendo cada vez mais aplicadas na solução de problemas de engenharia. Portanto, este trabalho tem como objetivo avaliar diferentes modelos de aprendizado de máquina para a identificação de forças atuando em um sistema composto por uma placa suspensa, com base em dados de vibração medidos. Nesse sentido, um modelo computacional foi gerado e calibrado usando respostas de vibração medidas em laboratório. Um banco de dados robusto foi criado utilizando a Metodologia de Superfície de Resposta (Response Surface Methodology- SRM) em conjunto com o Delineamento de Experimentos (Design of Experiment - DOE) e, em seguida, utilizado para avaliar a capacidade dos modelos de aprendizado de máquina em prever a localização, frequência de excitação, magnitude e número de forças que atuam na estrutura. Entre os seis modelos de aprendizado de máquina avaliados, o modelo k-NN foi capaz de prever os parâmetros das forças com um erro de 0,013%, e o modelo de floresta aleatória, com um erro máximo de 0,2%. Por fim, um banco de dados, contendo uma linha de dados experimentais, foi utilizada para avaliar os modelos k-NN e Floresta Aleatória, obtendo um score de 0,96 e 0,93, respectivamente. A inovação do estudo está na aplicação do método proposto para identificação de parâmetros em sistemas multiforças.Dissertação Acesso aberto (Open Access) Implementação de modelos computacionais na predição temporal e espaço-temporal de parâmetros de qualidade de água(Universidade Federal do Pará, 2021-12-14) ALMEIDA, Anderson Francisco de Sousa; MERLIN, Bruno; http://lattes.cnpq.br/7336467549495208; HTTPS://ORCID.ORG/0000-0001-7327-9960; GONZÁLEZ, Marcos Tulio Amaris; http://lattes.cnpq.br/9970287865377659A qualidade da água esta diretamente relacionada com o nível de poluição causada pelas acoes antrópicas e industrias, destacando-se como consequência a redução da disponibilidade de uma água de qualidade. Por isso, são realizados os monitoramentos limnológicos dos parâmetros básicos da qualidade da água como forma de obtenção de dados que norteiam as tomadas de decisão dos órgãos de recursos hídricos. Neste contexto, o presente estudo tem a implementação de algoritmos de aprendizado de maquina para predizer de modo temporal e espaço-temporal os dados dos parâmetros da qualidade da água. As técnicas de aprendizado de maquina usadas foram regressão linear, ramdom forest, redes neurais MLP e L STM. Foram usados dois pontos de coletas de uma Unidade Gerenciamento de Recursos Hídricos em São Paulo, Brasil. Os modelos são avaliados atraves de métricas MAPE ( Erro percentual médio absoluto) e RMSE( Erro raiz quadrada média). Portanto, na predição temporal a técnica LSTM apresentou o melhor desempenho em relação as demais técnicas, pois tem menor resultado de RMSE médio, com 2,47. Porem, na predição espaço-temporal, o MLP tem os melhores desempenhos tanto em relação as demais técnicas quanto aos dados utilizados, pois tem menores resultados médios de MAPE e RMPE, respectivamente, 5,94% e 1,34. Desse modo, estes desempenhos neurais podem ser justificados pela não linearidade dos dados parâmetros. Além disso, os resultados dos experimentos visam contribuir com os processos de monitoramento da qualidade da água e auxiliar o planejamento da gestão hídrica de modo que atenda as legislações vigentes e possibilite a indicação de politicas publicas atraves de modelos de aprendizado de maquina na predição dos parâmetros de qualidade de água.Dissertação Acesso aberto (Open Access) Machine learning algorithms for damage detection in structures under changing normal conditions(Universidade Federal do Pará, 2017-01-31) SILVA, Moisés Felipe Mello da; SALES JÚNIOR, Claudomiro de Souza de; http://lattes.cnpq.br/4742268936279649; COSTA, João Crisóstomo Weyl Albuquerque; http://lattes.cnpq.br/9622051867672434Estruturas de engenharia têm desempenhado um papel importante para o desenvolvimento das sociedades no decorrer dos anos. A adequada gerência e manutenção de tais estruturas requer abordagens automatizadas para o monitoramento de integridade estrutural (SHM) no intuito de analisar a real condição dessas estruturas. Infelizmente, variações normais na dinâmica estrutural, causadas por efeitos operacionais e ambientais, podem ocultar a existência de um dano. Em SHM, normalização de dados é frequentemente referido como o processo de filtragem dos efeitos normais com objetivo de permitir uma avaliação adequada da integridade estrutural. Neste contexto, as abordagens baseadas em análise de componentes principais e agrupamento de dados têm sido empregadas com sucesso na modelagem dessas condições variadas, ainda que efeitos normais severos imponham alto grau de dificuldade para a detecção de danos. Contudo, essas abordagens tradicionais possuem limitações sérias quanto ao seu emprego em campanhas reais de monitoramento, principalmente devido as restrições existentes quanto a distribuição dos dados e a definição de parâmetros, bem como os diversos problemas relacionados a normalização dos efeitos normais. Este trabalho objetiva aplicar redes neurais de aprendizado profundo e propor um novo método de agrupamento aglomerativo para a normalização de dados e detecção de danos com o objetivo de superar as limitações impostas pelos métodos tradicionais. No contexto das redes neurais profundas, o emprego de novos métodos de treinamento permite alcançar modelos com maior poder de generalização. Em contrapartida, o novo algoritmo de agrupamento não requer qualquer parâmetro de entrada e não realiza asserções quanto a distribuição dos dados, permitindo um amplo dominínio de aplicações. A superioridade das abordagens propostas sobre as disponíveis na literatura é atestada utilizando conjuntos de dados oriundos de dois sistemas de monitoramento instalados em duas pontes distintas: a ponte Z-24 e a ponte Tamar. Ambas as técnicas revelaram um melhor desempenho de normalização dos dados e classificação do que os métodos tradicionais, em termos de falsas-positivas e falsas-negativas indicações de dano, o que sugere a aplicabilidade dos métodos em cenários reais de monitoramento de integridade estrutural.Dissertação Acesso aberto (Open Access) Metodologia de auxílio na tomada de decisão na formação de conjuntos de unidades consumidoras de energia elétrica(Universidade Federal do Pará, 2010-10-08) SANTOS, Fábio Corrêa dos; SANTANA, Ádamo Lima de; http://lattes.cnpq.br/4073088744952858; TOSTES, Maria Emília de Lima; http://lattes.cnpq.br/4197618044519148A edição dos procedimentos de distribuição de energia elétrica (PRODIST) confirmou a análise comparativa entre empresas de distribuição de energia elétrica estabelecida pela Resolução 024/2000 como base para o estabelecimento das metas dos indicadores de continuidade DEC (Índice de Duração Equivalente de Interrupção por Consumidor) e FEC (Índice de Frequência Equivalente de Interrupção por Consumidor). O estabelecimento das metas é influenciado diretamente pela definição dos conjuntos de unidades consumidoras das empresas de distribuição de energia elétrica, portanto, é de interesse das empresas distribuidoras uma boa definição desses conjuntos. Este trabalho apresenta o desenvolvimento de uma metodologia baseada em técnicas de aprendizado de máquina que auxilie as empresas de distribuição de energia elétrica na tomada de decisão da definição de conjuntos de unidades consumidoras objetivando melhor compatibilidade das metas para os indicadores de DEC e FEC com a realidade dos conjuntos em relação às características ambientais e de infra-estrutura da área de concessão da empresa distribuidora.Tese Acesso aberto (Open Access) Modelo de inteligência artificial para estimativa do desmatamento considerando a rede de transporte rodoviário do estado do Pará(Universidade Federal do Pará, 2022-01-10) NEVES, Patrícia Bittencourt Tavares das; BLANCO, Claudio José Cavalcante; http://lattes.cnpq.br/8319326553139808; https://orcid.org/0000-0001-8022-2647; DUARTE, André Augusto Azevedo Montenegro; http://lattes.cnpq.br/1135221873341973; https://orcid.org/0000-0003-4586-1587Desde a década de 1950 a matriz de transporte amazônica, assim como de todo o Brasil, priorizou o modal rodoviário sem considerar a potencialidade hidroviária da Amazônia. Estudos anteriores indicam que o sistema rodoviário, formado pela rede viária regulamentada integrada a uma vasta rede clandestina, tem forte relação espacial com o desmatamento da floresta. Assim, o objetivo do trabalho é realizar uma análise quantitativa das variáveis relacionadas ao processo de desmatamento da floresta Amazônica, no período de 1988 a 2018. A área de estudo é o território do estado do Pará, localizado na Amazônia Oriental, segundo maior estado do Brasil em extensão territorial e o mais desmatado. O recurso matemático utilizado foi inteligência artificial com aplicação da técnica de aprendizado de máquinas (machine learning). Utilizaram-se variáveis quantitativas relacionadas à infraestrutura de transportes, variáveis sociais e econômicas, e como variável ambiental, a área desmatada. Foram testados três modelos e o algoritmo Random Forest apresentou o melhor desempenho. Com a função gerada, foi estimada a área desmatada para os anos de 2020, 2030, 2040 e 2050. Utilizou-se análise de sensibilidade para estimar a área desmatada com a implantação da BR-163 e BR-210, na região Norte do Pará. Os resultados demonstram que, mantendo-se o cenário atual, o desmatamento ainda será intenso nas próximas três décadas, com 25,77% de crescimento em relação à área atual, embora com taxas decenais decrescentes e a estimativa de área desmatada promovida pela implantação das rodovias federais é de 4.703,43 km2 a 6.567,48 km2 .
