Programa de Pós-Graduação em Engenharia Elétrica - PPGEE/ITEC
URI Permanente desta comunidadehttps://repositorio.ufpa.br/handle/2011/2314
O Programa de Pós-Graduação em Engenharia Elétrica (PPGEE) do Instituto de Tecnologia (ITEC) da Universidade Federal do Pará (UFPA) foi o primeiro e é considerado o melhor programa de pós-graduação em Engenharia Elétrica da Região Amazônica. As atividades acadêmicas regulares dos cursos de mestrado e doutorado são desenvolvidas principalmente nas Faculdades de Engenharia Elétrica e Engenharia de Computação, supervisionadas pela Coordenação do Programa de Pós-Graduação em Engenharia Elétrica (CPPGEE).
Navegar
Navegando Programa de Pós-Graduação em Engenharia Elétrica - PPGEE/ITEC por Institutos "Instituto de Tecnologia"
Agora exibindo 1 - 20 de 727
- Resultados por página
- Opções de Ordenação
Dissertação Acesso aberto (Open Access) 5G MIMO and LIDAR data for machine learning: mmWave beam-selection using deep learning(Universidade Federal do Pará, 2019-08-29) DIAS, Marcus Vinicius de Oliveira; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284Sistemas de comunicação modernos podem explorar o crescente número de dados de sensores usados atualmente em equipamentos avançados e reduzir a sobrecarga associada à configuração de links. Além disso, a crescente complexidade das redes sugere que o aprendizado de máquina, como redes neurais profundas, podem ser utilizadas efetivamente para melhorar as tecnologias 5G. A falta de grandes conjuntos de dados dificulta a investigação da aplicação de aprendizado profundo na comunicação sem fio. Este trabalho apresenta uma metodologia de simulação (RayMobTime) que combina um simulador de tráfego de veículos (SUMO) com um simulador de ray-tracing (Remcom’s Wireless InSite), para gerar canais que representem cenários 5G realísticos, bem como a criação de dados de sensores LIDAR (através do Blensor). O conjunto de dados criado é utilizado para investigar técnicas de beam selection de veículo para infraestrutura usando ondas milimétricas em diferentes arquiteturas, como arquitetura distribuída (uso das informações de apenas um veículo selecionado e processamento de dados no veículo) e arquiteturas centralizadas (uso de todas as informações presentes fornecidas pelos sensores em um dado momento, processando na estação base). Os resultados indicam que redes neurais profundas convolucionais podem ser utilizadas para beam selection sob uma estrutura de classificação de top-M. Também mostra que uma arquitetura distribuída baseada em LIDAR fornece desempenho robusto independentemente da taxa de penetração de veículos, superando outras arquiteturas, bem como pode ser usada para detecção de visada direta com precisão razoável.Dissertação Acesso aberto (Open Access) Abordagem de leitura de texto em imagens provenientes de redes sociais para ganho em disponibilidade de dados(Universidade Federal do Pará, 2017-10-19) FERREIRA NETO, Luiz Cortinhas; SANTANA, Ádamo Lima de; http://lattes.cnpq.br/4073088744952858Este trabalho tem como objetivo propor uma adaptação metodológica no processo de análise de redes sociais, baseado na inclusão de texto obtido de imagens provenientes das próprias redes sociais. O processo de análise de sentimento é de fundamental importância para a inteligência de mercado, análise de produtos, para os processos de CRM e SCRM, uma vez que estes são tendências de mercado utilizadas por grandes empresas, que acabam, portanto, auxiliando na atração de incentivos financeiros e motivando a pesquisa. A modificação metodológica aplicada neste trabalho tem sua importância fundamentada na disponibilidade de dados, que tem se tornado cada vez mais restrita, graças a utilização de API’s, que são as interfaces de gerenciamento de acesso aos dados onde, de várias maneiras diferentes, cada rede social limita a consulta de dados, seja por tipo de dado, quantidade coletada ou janela de coleta. Esta pesquisa demonstra, por meio de estudos de caso, que existe ganho de informação para o processo de análise de sentimentos ao incluir dados textuais proveniente de imagens.Dissertação Acesso aberto (Open Access) Uma abordagem híbrida e semiautomática para estimativa de regiões cobertas por nuvens e sombras em imagens de satélite: análise e avaliação(Universidade Federal do Pará, 2014-03-31) SOUSA, Danilo Frazão; PELAES, Evaldo Gonçalves; http://lattes.cnpq.br/0255430734381362Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.Tese Acesso aberto (Open Access) Abordagem Inteligente com Combinação de Características Estruturais para Detecção de Novas Famílias de Ransomware(Universidade Federal do Pará, 2024-03-22) MOREIRA, Caio Carvalho; SALES JUNIOR, Claudomiro de Souza de; País de Nacionalidade BrasiRansomware é um software malicioso que tem como objetivo criptografar os arquivos do usuá- rio e exigir um resgate para desbloqueá-los. Trata-se de uma ameaça cibernética que pode causar significativos danos financeiros, além do comprometimento de privacidade e integridade dos dados. Embora os scanners de detecção baseados em assinaturas comumente combatam essa ameaça, eles falham na identificação de famílias (variantes) desconhecidas de ransomware. Um método para detectar novas ameaças sem a necessidade de executá-las é a análise estática, que inspeciona o código e a estrutura do software, juntamente com a classificação através de abordagens inteligentes. A Detecção de Novas Famílias de Ransomware (DNFR) pode ser avaliada em um cenário realista e desafiador pela categorização e isolamento de famílias para treinamento e teste. Desta forma, o objetivo desta tese é desenvolver um modelo eficaz de análise estática para a DNFR, que pode ser aplicado em sistemas Windows como uma camada adicional de segurança para verificar os arquivos executáveis no momento do recebimento ou antes de sua execução. A detecção precoce do ransomware é fundamental para reduzir a probabilidade de um ataque bem-sucedido. A abordagem proposta analisa abrangentemente os binários executá- veis, ao extrair e combinar diversas características estruturais, e os distingue entre ransomware ou software benigno empregando um modelo de votação suave que compreende três técnicas de Aprendizado de Máquina: Logistic Regression (LR), Random Forest (RF) e eXtreme Gradient Boosting (XGB). Os resultados para a DNFR demonstraram médias de 97,53% de acurácia, 96,36% de precisão, 97,52% de recall e 96,41% de F-measure. Além disso, a varredura e a predição de amostras individuais levaram uma média de 0,37 segundos. Essa performance indica sucesso na identificação rápida de variantes desconhecidas de ransomware e na adaptabilidade do modelo ao cenário em constante evolução, o que sugere sua aplicabilidade em sistemas de proteção antivírus, mesmo em dispositivos com recursos limitados. Portanto, o método oferece vantagens significativas e pode ajudar desenvolvedores de sistemas de detecção de ransomware na criação de soluções mais resilientes, confiáveis e com rápido tempo de resposta.Tese Acesso aberto (Open Access) Abordagem para o desenvolvimento de um etiquetador de alta acurácia para o Português do Brasil(Universidade Federal do Pará, 2011-10-21) DOMINGUES, Miriam Lúcia Campos Serra; FAVERO, Eloi Luiz; http://lattes.cnpq.br/1497269209026542A etiquetagem morfossintática é uma tarefa básica requerida por muitas aplicações de processamento de linguagem natural, tais como análise gramatical e tradução automática, e por aplicações de processamento de fala, por exemplo, síntese de fala. Essa tarefa consiste em etiquetar palavras em uma sentença com as suas categorias gramaticais. Apesar dessas aplicações requererem etiquetadores que demandem maior precisão, os etiquetadores do estado da arte ainda alcançam acurácia de 96 a 97%. Nesta tese, são investigados recursos de corpus e de software para o desenvolvimento de um etiquetador com acurácia superior à do estado da arte para o português brasileiro. Centrada em uma solução híbrida que combina etiquetagem probabilística com etiquetagem baseada em regras, a proposta de tese se concentra em um estudo exploratório sobre o método de etiquetagem, o tamanho, a qualidade, o conjunto de etiquetas e o gênero dos corpora de treinamento e teste, além de avaliar a desambiguização de palavras novas ou desconhecidas presentes nos textos a serem etiquetados. Quatro corpora foram usados nos experimentos: CETENFolha, Bosque CF 7.4, Mac-Morpho e Selva Científica. O modelo de etiquetagem proposto partiu do uso do método de aprendizado baseado em transformação(TBL) ao qual foram adicionadas três estratégias, combinadas em uma arquitetura que integra as saídas (textos etiquetados) de duas ferramentas de uso livre, o TreeTagger e o -TBL, com os módulos adicionados ao modelo. No modelo de etiquetador treinado com o corpus Mac-Morpho, de gênero jornalístico, foram obtidas taxas de acurácia de 98,05% na etiquetagem de textos do Mac-Morpho e 98,27% em textos do Bosque CF 7.4, ambos de gênero jornalístico. Avaliou-se também o desempenho do modelo de etiquetador híbrido proposto na etiquetagem de textos do corpus Selva Científica, de gênero científico. Foram identificadas necessidades de ajustes no etiquetador e nos corpora e, como resultado, foram alcançadas taxas de acurácia de 98,07% no Selva Científica, 98,06% no conjunto de teste do Mac-Morpho e 98,30% em textos do Bosque CF 7.4. Esses resultados são significativos, pois as taxas de acurácia alcançadas são superiores às do estado da arte, validando o modelo proposto em busca de um etiquetador morfossintático mais confiável.Dissertação Acesso aberto (Open Access) Uma abordagem para otimização do período de sensoriamento em rádio cognitivo com algoritmo genético multiobjetivo(Universidade Federal do Pará, 2011-08-25) YOSHIOKA, Peterson Marcelo Santos; COSTA JÚNIOR, Carlos Tavares da; http://lattes.cnpq.br/6328549183075122A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.Dissertação Acesso aberto (Open Access) Abordagem probabilística para caracterização do sistema de marcação de sequenciamento multiplex na plataforma ABI SOLID(Universidade Federal do Pará, 2011-07-01) LOBATO, Fábio Manoel França; SANTANA, Ádamo Lima de; http://lattes.cnpq.br/4073088744952858Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.Tese Acesso aberto (Open Access) Uma abordagem SDN para virtualização de redes(Universidade Federal do Pará, 2016-11-25) PINHEIRO, Billy Anderson; ABELÉM, Antônio Jorge Gomes; http://lattes.cnpq.br/5376253015721742As Redes Virtuais Denidas por Software (virtual SDN networks - vSDNs) surgiram da associac~ao de virtualizac~ao e Redes Denidas por Software (Software-Dened Networking - SDN), proporcionando maior controle e melhor utilização dos recursos de rede. Vários trabalhos ja mostraram a viabilidade e benefícios dessa abordagem. No entanto, o tema ainda carece de soluções que possam virtualizar uma rede de forma escalável, intuitiva e simplificada. Desta forma, esta Tese propõe uma abordagem SDN para a virtualização de redes com o objetivo de reduzir as limitações em vSDNs. Sendo assim, sugere-se adotar na virtualização de rede a separação entre planos de dados (distribuído) e controle (centralizado), visão global da rede e uso de abstração de fluxo para gerir a comunicação entre os diferentes pontos. Para sustentar nossa proposição, três soluções foram desenvolvidas: o CIM-SDN (Common Information Model for Software-Dened Networking), para viabilizar o uso de representação formal dos novos elementos das vSDNs; o NVP (Network Virtualization Proxy), para prover maior escalabilidade através da separação do plano de controle em partes centralizadas e descentralizadas; e o GVL (Graph Virtualization Layer), para fornecer maior uso de abstrações entre o hypervisor e os controladores simplicando, assim, o entendimento e uso da rede. Foram realizadas provas de conceitos para as três soluções propostas, demonstrando a viabilidade da abordagem.Dissertação Acesso aberto (Open Access) Acionamento vetorial por controlador fuzzy modo deslizante de motor de indução(Universidade Federal do Pará, 2010-05-20) TEIXEIRA, Raphael Barros; BARRA JUNIOR, Walter; http://lattes.cnpq.br/0492699174212608; BARREIROS, José Augusto Lima; http://lattes.cnpq.br/1246564618922453Este trabalho estuda a técnica de acionamento vetorial aplicado ao motor de indução trifásico (MIT), utilizando como estratégia de controle a combinação de controle fuzzy com controladores chaveados do tipo modo deslizante, em uma configuração aqui denominada de Controlador Fuzzy Modo Deslizante (FSMC – Do inglês: Fuzzy Sliding Mode Control). Um modelo dinâmico do MIT é desenvolvido em variáveis ‘d-q’ o que conduziu a um modelo eletromecânico em espaço de estados que exibe fortes não linearidades. A este modelo são aplicadas as condições de controle vetorial que permitem desacoplar o torque e o fluxo no MIT, de maneira que o seu comportamento dinâmico se assemelha àquele verificado em uma máquina de corrente contínua. Nesta condição, são implementados controladores do tipo proporcional e integral (PI) às malhas de controle de corrente e velocidade do motor, e são realizadas simulações computacionais para o rastreamento de velocidade e perturbação de carga, o que levam a resultados satisfatórios do ponto de vista dinâmico. Visando investigar o desempenho das estratégias não lineares nesta abordagem é apresentado o estudo da técnica de controle a estrutura chaveada do tipo modo deslizante. Um controlador modo deslizante convencional é implementado, onde se verifica que, a despeito do excelente desempenho dinâmico a ocorrência do fenômeno do “chettering” inviabiliza a aplicação desta estratégia em testes reais. Assim, é proposta a estratégia de controle FSMC, buscando associar o bom resultado dinâmico obtido com o controlador modo deslizante e a supressão do fenômeno do chettering, o que se atinge pela definição de uma camada de chaveamento do tipo Fuzzy. O controlador FSMC proposto é submetido aos mesmos testes computacionais que o controlador PI, conduzindo a resultados superiores a este último no transitório da resposta dinâmica, porém com a presença de erro em regime permanente. Para atacar este problema é implementada uma combinação Fuzzy das estratégias FSMC com a ação de controle PI, onde o primeiro busca atuar em regiões afastadas da superfície de chaveamento e o segundo busca introduzir o efeito da ação integral próximo à superfície. Os resultados obtidos mostram a viabilidade da estratégia em acionamento de velocidade variável que exigem elevado desempenho dinâmico.Dissertação Acesso aberto (Open Access) Ações de eficiência energética em navios: estudo de caso e um navio patrulha da Marinha do Brasil(Universidade Federal do Pará, 2016-08-26) AQUINO, Suzane Cruz de; MORAES, Hito Braga de; http://lattes.cnpq.br/5044859479302394; TOSTES, Maria Emília de Lima; http://lattes.cnpq.br/4197618044519148Devido à crescente preocupação com o meio ambiente, a IMO (International Maritime Organization), através da MARPOL (International Convention for the Prevention of Pollution from Ships), criou a primeira norma obrigatória do setor sobre a eficiência energética dos navios, buscando a diminuição das emissões de gases de efeito estufa e de custos relacionados ao consumo de energia. Esta dissertação tem como objetivo propor uma metodologia de medidas de eficiência energética em navios, aplicando-a a um navio patrulha da Marinha do Brasil. O navio analisado, o P-49 ou Guarujá, é uma embarcação de 19 anos, sendo também a idade de quase todos os equipamentos que o compõem. O Guarujá possui o sistema de propulsão totalmente isolado eletricamente da geração de energia elétrica, então, os sistemas alvo dessa pesquisa foram aqueles com maior demanda de energia elétrica: o sistema de iluminação, de refrigeração, de geração de energia elétrica, de salvamento e as câmaras frigoríficas. No entanto, as informações disponíveis dos sistemas acima citados se mostraram escassas, assim, explorou-se apenas as lâmpadas e alguns motores elétricos de bombas, compressores e ventiladores. As ações propostas para os equipamentos disponíveis a verificação foram 1 - a troca das lâmpadas do caso referência por lâmpadas LED; e 2 - a substituição dos motores elétricos por exemplares similares de maior rendimento. As medidas foram analisadas financeira e ambientalmente através do software RETScreen, importante ferramenta para estudos em eficiência energética e fontes renováveis desenvolvida pelo Governo do Canadá; com auxílio do simulador do PROCEL, o BD Motor, promovendo maior enfoque sobre os motores devido a sua complexidade e importância no ótimo funcionamento dos sistemas do navio. As ações se mostraram viáveis, com o tempo de retorno total de 2 anos, diminuindo a emissão de 164 toneladas de CO2 na atmosfera em 20 anos e economizando cerca de R$ 352.974,80 ao fim da vida do projeto, justificando, assim, a sua execução.Dissertação Acesso aberto (Open Access) Acompanhamento e avaliação de projetos através da monitoração de eventos em um ambiente de gestão de processos de software(Universidade Federal do Pará, 2007-07-04) PAXIÚBA, Carla Marina Costa; REIS, Rodrigo Quites; http://lattes.cnpq.br/9839778710074372Uma das maiores dificuldades encontradas no gerenciamento de projetos de software é saber a dimensão do que está sendo gerenciado. Inúmeras dúvidas são pertinentes aos gerentes de projeto quando se fala em dimensionamento, prazo e custo dos projetos. Neste contexto pesquisas mostram que a minoria dos projetos são finalizados no tempo e orçamento estimados e com todas as funcionalidades acordadas implementadas. Os demais projetos, ou são finalizados com prazos e custos ultrapassados ou não chegam a serem concluídos. A gestão de projetos e produtos de software somente atinge o nível desejado de eficácia e exatidão se houver medidas que possibilitem gerenciar através de fatos. E, mais importante do que estabelecer estas medidas é acompanhá-las durante toda a execução dos projetos. O trabalho apresentado nesta dissertação propõe um acompanhamento de projetos eficiente, guiada pelas normas das principais abordagens de melhoria de processo existente e fazendo uso do acompanhamento das métricas como ferramenta fundamental para uma efetiva gerência de projetos. Este acompanhamento será obtido através da extensão do mecanismo de registro de eventos do ambiente de gerenciamento de processos WebAPSEE e emissão extração de relatórios gerenciais de acompanhamento de projetos que estão alinhados com os requisitos definidos pelas abordagens de melhoria de processo propostos por modelos como o CMMI e MPS-BR. A proposta foi avaliada através de uma análise crítica envolvendo a simulação da execução de um projeto e realização de seu acompanhamento através da ferramenta proposta.Dissertação Acesso aberto (Open Access) Acoplamento de modos guiados em cabos de pares trançados utilizando antenas com simetria radial no cenário terabit DSL(Universidade Federal do Pará, 2020-03-26) SOUSA, Brenda Penedo Tavares de; COSTA, João Crisóstomo Weyl Albuquerque; http://lattes.cnpq.br/9622051867672434O desenvolvimento dos padrões de transmissão de dados e tecnologias de acesso sempre vem atrelado com a necessidade de suprir altas taxas de dados. Assim, tecnologias já implantadas, como exemplo o sistema DSL (Digital Subscriber Line) que utiliza pares trançados para transmissão, vem se ajustando para conseguir atender essa crescente demanda de dados. No sistema DSL, os pares trançados são utilizados como linha de transmissão, utilizando o modo transversal eletromagnético (TEM). Entretanto, as limitações físicas do par trançado como linha de transmissão impedem que o sistema alcance taxas mais elevadas, necessárias para suportar aplicações da quinta geração (5G). Recentemente, foi proposta a utilização de outros modos de transmissão no par trançado, os modos guiados de ordem superior, como alternativa para que essa infraestrutura consiga suportar taxas de transmissão da ordem de Terabits por segundo (Tbps), denominada como a tecnologia Terabit DSL (TDSL). Porém, um dos desafios para esta implementação é o acoplamento dos modos guiados no par trançado, já que não são amplamente explorados no contexto de propagação dos modos guiados de ordem superior, como acontece com guias de onda mais simples, como exemplo de Sommerfeld e Goubau. Neste cenário, esta dissertação tem como objetivo avaliar o acoplamento do sinal radiado entre uma antena com propagação radial e um cabo de pares trançados, analisando o comportamento eletromagnético das estruturas. Considerando que o cabo de pares trançados não tem um modelo analítico fechado para o comportamento dos modos de ordem superior, que se propagam ao longo deles, todos os resultados foram obtidos a partir de simulações numéricas no software HFSS (High Frequency Structure Simulator). Esses resultados são em termos do parâmetro de espalhamento da antena e do campo eletromagnético no cabo, sendo possível avaliar a eficiência de acoplamento, o guiamento do sinal e prever a taxa de transmissão disponível aos usuários. Os resultados obtidos mostraram que o acoplamento entre a antena e o cabo de pares trançados sem blindagem alcançou níveis de até 83,83% em frequências de 0,15 THz, demonstrando uma alta eficiência de acoplamento quando comparada com cenários mais simples da literatura, que alcançam níveis em média de 67%. Verificou-se que a utilização desses cabos para transmissão de dados é eficaz, conseguindo entregar taxas de até 1,737 Tbps em cabos de até 10 metros, enquanto que as previsões de taxa para o cenário TDSL que consideram o acoplamento 100% alcançam níveis de 2,013 Tbps.Dissertação Acesso aberto (Open Access) Adequação do laboratório de alta tensão da UFPA - LEAT aos requisitos gerais para a competência de laboratórios de ensaio e calibração da norma ABNT NBR ISO/IEC 17025(Universidade Federal do Pará, 2022-02-24) BRASIL, Alexandre de Souza; NUNES, Marcus Vinícius Alves; http://lattes.cnpq.br/9533143193581447Fenômenos que provocam desequilíbrios elétricos nos sistemas de potência ocorrem constantemente, o que gera a necessidade de estudá-los com o objetivo de permitir o desenvolvimento de redes e equipamentos elétricos que se comportem de forma mais confiável e robusta diante de tais distúrbios. Estes estudos são, em geral, realizados em laboratórios especializados de Alta Tensão e Alta Potência. No decorrer dos anos, o mercado passou a demandar que estes estudos também fornecessem resultados que cumprissem padrões de qualidade certificados por órgãos oficiais. Nesse sentido, esta dissertação objetiva propor a adequação necessária do Laboratório de Alta e Extra Alta Tensão da Universidade Federal do Pará (LEAT) aos requisitos para a competência de laboratórios de ensaio e calibração definidos pela norma ABNT NBR ISO/IEC 17025, com foco no desenvolvimento e implantação de um Sistema de Gestão da Qualidade; criação de procedimentos operacionais e diretrizes de segurança; estabelecimento de um programa de calibração para os equipamentos do laboratório; e identificação das motivações, vantagens e impactos relacionados a implementação dos requisitos da referida norma, bem como as dificuldades e soluções encontradas. Para isso, primeiramente foi realizado um levantamento literário que buscou conhecer o panorama nacional de instituições de ensino superior com laboratórios acreditados sob a referida norma. Em seguida, iniciou-se o processo de implementação dos requisitos da norma, o qual se baseou na metodologia adaptada de Grochau (2011). Por fim, a experiência vivenciada permitiu observar que a adequação aos requisitos da norma em laboratórios vinculados as instituições públicas, apesar de complexa em um primeiro momento, é plenamente capaz de proporcionar diversos benefícios e vantagens, desde que sejam respeitadas as peculiaridades deste tipo de instituição como: burocracia; limitação de recursos; capacitação do pessoal envolvido e; conciliação das atividades de pesquisa e ensino com a prestação de serviços.Dissertação Acesso aberto (Open Access) Agrupamento de fornos de redução de alumínio utilizando os algoritmos Affinity Propagation, Mapa auto–organizável de Kohonen (som), Fuzzy C–Means e K–Means(Universidade Federal do Pará, 2017-10-11) LIMA, Flávia Ayana Nascimento de; CARDOSO, Diego Lisboa; http://lattes.cnpq.br/0507944343674734; OLIVEIRA, Roberto Célio Limão de; http://lattes.cnpq.br/4497607460894318O constante avanço da tecnologia requer medidas que beneficiem as indústrias em busca do lucro e da competitividade. Em relação à indústria de minerais, o processo de fundição de alumínio geralmente possui grande número de células, também chamado de forno ou cuba de redução, produzindo alumínio em um procedimento contínuo e complexo. Um monitoramento analítico é essencial para aumentar a vantagem competitiva dessa indústria, por exemplo, durante a operação, algumas células compartilham comportamentos semelhantes às outras, formando grupos ou clusters de células. Esses clusters dependem de padrões de dados geralmente implícitos ou invisíveis para a operação, mas que podem ser encontrados por meio da análise de dados. Neste trabalho, são apresentadas quatro técnicas de agrupamento, o Affinity Propagation, o mapa auto–organizável de Kohonen (SOM), o algoritmo difuso Fuzzy C–Means (FCM) e o K–Means. Essas técnicas são utilizadas para encontrar e agrupar as células que apresentam comportamentos semelhantes, de acordo com sete variáveis tais como as que consiste no processo de redução do alumínio. Este trabalho visa trazer o benefício do agrupamento, principalmente pela simplificação da análise da linha de produção do alumínio, uma vez que um grande número de células pode se resumir em um único grupo, o que pode fornecer informações mais compactas para o controle e a modelagem dos dados. Este benefício de identificar os dados que possuem características semelhantes e agrupá–los faz com que a análise dos grupos se torne mais simples para quem irá manusear esses dados futuramente. Nesse trabalho de dissertação também será feito a identificação da quantidade ideal de grupo em cada técnica utilizada.Dissertação Acesso aberto (Open Access) Algoritmo de Sleep Mode para redes LTE em conectividade dual(Universidade Federal do Pará, 2015-09-18) ARAUJO, Ivanes Lian Costa; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284Este trabalho realiza um minucioso estudo dos ganhos da conectividade dual em redes Long Term Evolution (LTE) e propõe um algoritmo de "sleep mode" que potencializa a eficiência da rede neste contexto. Dentre os algoritmos de "sleep mode" em conectiviclade dual da literatura, nenhum realiza abordagem envolvendo a capacidade do "backhaul" das "small cells" para a decisão da ativação das mesmas. A carência de um processo de "sleep mode" que possa abranger o "backhaul" pode resultar em gargalos na rede, maior latência e perda de pacotes. Dessa forma, o algoritmo proposto lança luz a um aspecto relevante na conjuntura de redes LTE, além de quantificar os benefícios advindos não apenas do uso do algoritmo, mas da conectiviclade dual em si. Para a análise destes benefícios, o estudo foi elaborado a partir de diversas simulações feitas no "software" Riverbect Modeler, embasadas em parâmetros do 3rd Generation Partnership Project (3GPP) e artigos atuais da área. Os resultados das simulações atestam que menores níveis de atraso podem ser alcançados com a conectiviclade dual, e ainda potencializados com o uso do algoritmo proposto, que contribui para o uso mais eficiente dos recursos da rede também do ponto de vista energético. Além destes ganhos, são analisados resultados em relação ao tráfego no "backhaul" tanto das "small cells" quanto do núcleo da rede. O conjunto destes resultados aponta diversas vantagens do uso de conectividade dual e do algoritmo proposto neste trabalho, em redes LTE.Tese Acesso aberto (Open Access) Algoritmo genético com interação social nebulosa(Universidade Federal do Pará, 2012-04-19) TEIXEIRA, Otávio Noura; OLIVEIRA, Roberto Célio Limão de; http://lattes.cnpq.br/4497607460894318Este trabalho apresenta um nova nova metaheurística híbrida e bioinspirada na natureza, baseada em três pilares fundamentais, que são: os Algoritmos Genéticos; a Teoria dos Jogos; e, a Lógica Nebulosa. Assim, o Algoritmo Genético com Interação Social Nebulosa, ou F-SIGA, é fundamentado e caracterizado por permitir aos indivíduos da população a possibilidade de participar do processo de Interação Social. Essa etapa é anterior ao processo de seleção para a geração dos descendentes, e nela eles podem obter ganhos através das disputas com outros indivíduos. Para isso, cada indivíduo é caracterizado por dois cromossomos, sendo um referente a solução do problema em questão; e, o outro, com a codificação genética da sua estratégia de comportamento. Como ambiente de disputas é utilizado o jogo Dilema do Prisioneiro, nas versões de 2-pessoas e N-pessoas, inclusive com a abordagem nebulosa. Além disso, os indivíduos são avaliados por uma função de fitness que engloba: a representação da solução do problema, os ganhos obtidos nas disputas e, ainda, o Fator de Experiència, que utiliza da experiência adquirida pelo indivíduo também como componente para auxiliar no processo evolutivo da população. Esta característica deu origem ao algoritmo ESIA – não previsto inicialmente – onde apenas as informações obtidas nas Interações Sociais são consideradas na seleção dos indivíduos para a etapa de reprodução. Metodologicamente, o trabalho evoluiu para o surgimento do algoritmo ESIA, que é uma nova classe de Algoritmos Evolucionários baseados em Interação Social. Sendo assim, este trabalho apresenta quatro algoritmos: o SIGA, o NpSIGA, o F-SIGA e o ESIA, com suas fundamentações teóricas e, também, resultados práticos ao aplicá-los à problemas de otimização global, com e sem restrições; e, à instâncias do Problema do Caixeiro Viajante.Dissertação Acesso aberto (Open Access) Algoritmo genético retroviral iterativo(Universidade Federal do Pará, 2010-09-10) MOREIRA, Renato Simões; AFFONSO, Carolina de Mattos; http://lattes.cnpq.br/2228901515752720Este trabalho tem como objetivo apresentar o desenvolvimento de uma metaheurística híbrida baseada no ciclo de vida viral, mais especificamente dos Retrovírus, que fazem parte do grupo dos seres que evoluem mais rápido na natureza. Este algoritmo é denominado Algoritmo Genético Retroviral Iterativo (AGRI) e para embasamento computacional são utilizados conceitos de Algoritmo Genético (AG) e biológico características de replicação e evolução retroviral, o que proporciona uma grande diversidade genética o que aumenta a probabilidade para encontrar a solução, fato este confirmado através de melhores resultados obtidos pelo AGRI em relação ao AG.Tese Acesso aberto (Open Access) Algoritmo memético cultural para otimização de problemas de variáveis reais(Universidade Federal do Pará, 2019-03-29) FREITAS, Carlos Alberto Oliveira de; SILVA, Deam James Azevedo da; http://lattes.cnpq.br/8540875293894747; OLIVEIRA, Roberto Célio Limão de; http://lattes.cnpq.br/4497607460894318A tecnologia deu grandes passos nos últimos anos, mas os recursos de computação para certas aplicações precisam de otimização para que os custos envolvidos na solução de alguns problemas não sejam altos. Existe uma área muito ampla de pesquisa para o desenvolvimento de algoritmos eficientes para problemas de otimização multimodal. Nas duas últimas décadas o uso de algoritmos evolutivos em otimização multimodal tem demonstrado ser um sucesso. Dentre esses algoritmos evolutivos, que são algoritmo de busca global, pode-se citar o uso dos Algoritmos Culturais. Um aprimoramento natural do Algoritmo Cultural é a sua hibridização com algum outro algoritmo de busca local, de forma a ter as vantagens da busca global combinada com a busca local. Entretanto os Algoritmos Culturais com busca local usados para otimização multimodal nem sempre são avaliados por testes estatísticos eficientes. O objetivo deste trabalho é analisar o comportamento do Algoritmo Cultural, com populações evoluídas pelo Algoritmo Genético, quando são utilizadas as heurísticas de busca locais: Busca Tabu, Busca de Feixe, Escalada e Recozimento Simulado. Uma das contribuições deste trabalho foi a atualização do conhecimento topográfico do algoritmo cultural pelo uso da área triangular definida pelos melhores resultados encontrados na busca local. Para realizar a análise, um algoritmo memético foi desenvolvido pela hibridização do algoritmo cultural com as heurísticas de busca local citadas, sendo selecionadas uma de cada vez. Os problemas do mundo real costumam ter características multimodais, então as avaliações foram realizadas usando funções de benchmark multimodais, que tiveram seus resultados avaliados por testes não paramétricos. Além disso, o algoritmo memético foi testado em problemas reais de otimização com restrições nas áreas de engenharia. Nas avaliações realizadas, o Algoritmo Cultural Memético desenvolvido apresentou melhores resultados quando comparado com os resultados disponíveis da literatura científica pesquisada.Tese Acesso aberto (Open Access) Algoritmos culturais com abordagem memética e multipopulacional aplicados a problemas de otimização(Universidade Federal do Pará, 2012-04-20) SILVA, Deam James Azevedo da; OLIVEIRA, Roberto Célio Limão de; http://lattes.cnpq.br/4497607460894318Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.Dissertação Acesso aberto (Open Access) Alocação de dois níveis para uma arquitetura h-cran baseada em offloading(Universidade Federal do Pará, 2019-01-24) GONÇALVES, Mariane de Paula da Silva; BARROS, Fabrício José Brito; http://lattes.cnpq.br/9758585938727609; CARDOSO, Diego Lisboa; http://lattes.cnpq.br/0507944343674734O crescimento acelerado de dados e aplicativos representa desafios significativos para a próxima geração de redes móveis (5G). Dentre eles, destaca-se a necessidade de uma coexistência dc novos e antigos padrões durante a transição das arquiteturas. Assim, na coexistência de arquiteturas, o processo de offloading entre diferentes arquiteturas é essencial. Aliado a isso, processos de ofioading tradicionais, que focam apenas nos recursos de rádio, podem ser ineficazes, uma vez que o processo dinâmico de alocação de RRH-BBU influencia no resultado. Desta forma, este trabalho investigou soluções para descarregamento em uma arquitetura híbrida, também conhecida como H-CRAN (Heterogeneous Cloud –Radio Access Network ATchitecture), que centraliza o processamento e busca um melhor uso dos recursos da rede. Através de um algoritmo evolutivo, buscou-se encontrar uma solução subótima para a alocação de dois níveis (TLA) na arquitetura H-CRAN e outra baseada no FIFO (First In, First Out), para fins de benchmarking. A média SNR (Noise Interference Signal), a máxima taxa de bits, o número de usuários com ou sem conexões e o número de conexões em RRHs e macro foram usados como medidas de desempenho. Através dos resultados, percebeu-se uma melhora de aproximadamente 60% na Taxa Máxima de Bits, quando comparada à abordagem tradicional, possibilitando um melhor atendimento aos usuários.
