BDTD - Biblioteca Digital de Teses e Dissertações
URI Permanente desta comunidadehttps://repositorio.ufpa.br/handle/2011/2289
Biblioteca Digital de Teses e Dissertações da UFPA (BDTD). Sistema Eletrônico de Teses e Dissertações (TEDE). Projeto BDTD/UFPA e Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT).
Navegar
Navegando BDTD - Biblioteca Digital de Teses e Dissertações por Institutos "Instituto de Tecnologia"
Agora exibindo 1 - 20 de 1686
- Resultados por página
- Opções de Ordenação
Dissertação Acesso aberto (Open Access) 3D geometric reconstruction of civil infrastructures with neural radiance fields(Universidade Federal do Pará, 2025-04-04) RIBEIRO, Thiago Figueiró; SILVA, Moisés Felipe Mello da; http://lattes.cnpq.br/8154941342611201; https://orcid.org/0000-0001-7897-3978; COSTA, João Crisóstomo Weyl Albuquerque; http://lattes.cnpq.br/9622051867672434; ARAÚJO, Jasmine Priscyla Leite de; SANTOS, Adam Dreyton Ferreira dos; CARDOSO, Diego Lisboa; http://lattes.cnpq.br/2616572481839756; http://lattes.cnpq.br/0507944343674734; http://lattes.cnpq.br/4001747699670004; https://orcid.org/0000-0002-5940-4961; https://orcid.org/0000-0002-5971-3668; https://orcid.org/0000-0003-3514-0401O uso de tecnologias de sensoriamento sem contato para o monitoramento da saúde estrutu- ral (SHM) ampliou significativamente o conjunto de ferramentas disponíveis para medições e análises precisas em contextos científicos e de engenharia. Essas tecnologias superam vá- rias limitações dos sensores convencionais de contato, muitas vezes apresentando desempenho superior, com levantamentos mais ágeis, instalação mais conveniente e frequentemente custo inferior. Gêmeos Digitais — réplicas virtuais dinâmicas e orientadas por dados de estruturas físicas — revolucionaram ainda mais o SHM ao integrar dados de sensores em tempo real com análises preditivas e modelagem computacional. Tecnologias como LiDAR e fotogrametria são utilizadas para criar modelos 3D de alta fidelidade, que podem servir de base para modelos de informações de construções (BIM) e gêmeos digitais de estruturas civis. Avanços recentes em aprendizado profundo marcaram uma mudança de paradigma em diversas áreas, incluindo a reconstrução 3D. Uma abordagem promissora é o uso de Neural Radiance Fields (NeRF), uma metodologia baseada em aprendizado profundo capaz de produzir modelos 3D de alta fidelidade a partir de conjuntos esparsos de imagens, como fotos capturadas por câmeras convencionais ou smartphones. NeRF é capaz de gerar nuvens de pontos densas, comparáveis às produzidas por fotogrametria Multiview Stereo (MVS) e laser scanner terrestre. No entanto, há uma lacuna na literatura quanto à avaliação quantitativa das capacidades do NeRF para escaneamento 3D de pontes. Este trabalho avalia o desempenho das reconstruções 3D de pontes reais usando NeRF em comparação com modelos baseados em fotogrametria SFM/MVS e dados de referência gerados por LiDAR. Demonstramos a viabilidade do NeRF para avaliações estruturais em larga escala, com insights interessantes sobre seu desempenho sob diferentes disponibilidades de dados, impactando tanto as métricas de Nível de Precisão (LOA) quanto as medições estatísticas de erro. Modelos NeRF possuem maior LOA e valores menores de erro médio, desvio padrão e erro quadrático médio quando comparados com modelos de fotogrametria. No geral, o NeRF se mostrou um método mais robusto e preciso, especialmente ao equilibrar a disponibilidade de dados com a qualidade da reconstrução, posicionando-se como a escolha preferida para modela- gem 3D em cenários de dados limitados, restrições orçamentárias e escassez de equipamentos especializados. Essa abordagem oferece uma solução eficiente, econômica e precisa para atender à crescente demanda por monitoramento de infraestrutura no setor de Arquitetura, Engenharia e Construção, reduzindo assim as barreiras econômicas e técnicas à adoção dessa tecnologia.Dissertação Acesso aberto (Open Access) 5G MIMO and LIDAR data for machine learning: mmWave beam-selection using deep learning(Universidade Federal do Pará, 2019-08-29) DIAS, Marcus Vinicius de Oliveira; KLAUTAU JÚNIOR, Aldebaro Barreto da Rocha; http://lattes.cnpq.br/1596629769697284Sistemas de comunicação modernos podem explorar o crescente número de dados de sensores usados atualmente em equipamentos avançados e reduzir a sobrecarga associada à configuração de links. Além disso, a crescente complexidade das redes sugere que o aprendizado de máquina, como redes neurais profundas, podem ser utilizadas efetivamente para melhorar as tecnologias 5G. A falta de grandes conjuntos de dados dificulta a investigação da aplicação de aprendizado profundo na comunicação sem fio. Este trabalho apresenta uma metodologia de simulação (RayMobTime) que combina um simulador de tráfego de veículos (SUMO) com um simulador de ray-tracing (Remcom’s Wireless InSite), para gerar canais que representem cenários 5G realísticos, bem como a criação de dados de sensores LIDAR (através do Blensor). O conjunto de dados criado é utilizado para investigar técnicas de beam selection de veículo para infraestrutura usando ondas milimétricas em diferentes arquiteturas, como arquitetura distribuída (uso das informações de apenas um veículo selecionado e processamento de dados no veículo) e arquiteturas centralizadas (uso de todas as informações presentes fornecidas pelos sensores em um dado momento, processando na estação base). Os resultados indicam que redes neurais profundas convolucionais podem ser utilizadas para beam selection sob uma estrutura de classificação de top-M. Também mostra que uma arquitetura distribuída baseada em LIDAR fornece desempenho robusto independentemente da taxa de penetração de veículos, superando outras arquiteturas, bem como pode ser usada para detecção de visada direta com precisão razoável.Dissertação Acesso aberto (Open Access) A implantação de obras civis e de saneamento na Bacia do Una, em Belém do Pará, e as condicionantes relacionadas às características geológicas e geotécnicas(Universidade Federal do Pará, 2004-04-26) SILVA, Kleber Roberto Matos da; ALENCAR JÚNIOR, Júlio Augusto de; http://lattes.cnpq.br/3663658632717465Apresenta a implantação de obras de civis e de saneamento no Projeto de Recuperação das Baixadas de Belém -Bacia do Una, na cidade de Belém, no estado do Pará, que envolve obras de macrodrenagem, microdrenagem, redes de água, redes de esgoto e sistema viário. Também chamado de Projeto Una ou simplesmente de Projeto de Macrodrenagem, alcança uma área de 3.644 ha , correspondente a, aproximadamente, 21% da área continental e 7,20% da área total do município de Belém, desenvolve-se na Bacia do Una, situada em área de baixada, com grande parte de suas terras abaixo da cota de alagamento, isto é, até 3,60 m acima do nível do mar, apresenta uma camada espessa de argila orgânica, na maioria das vezes, superficial, atingindo em alguns lugares a grandes profundidades, inadequada, portanto para o suporte de fundações, estando as camadas de solos mais resistentes a profundidades variáveis, atingindo, em certas áreas, até 60 metros. Além das dificuldades de construção em solos dessa natureza, esta obra apresenta inúmeros condicionantes, como o remanejamento de famílias de áreas de risco, isto é, famílias que residem sobre o leito de canais, dificultando o escoamento das águas servidas e pluviais; as indenizações de residências abaladas pelas obras; a falta de espaço físico para a implantação das obras; a ruptura dos taludes das marginais de canais; as dificuldades de gerenciamento face a extensa abrangência da área; as relações com a comunidade, tumultuadas em alguns momentos e, principalmente, a priorização de algumas áreas, em detrimento de outras, para a execução das obras, face os recursos disponíveis. Fundamentado em relatórios técnicos, projetos, pesquisa de campo e experiências pessoais do autor, a dissertação faz uma descrição do projeto em seus diversos aspectos, bem como promove revisão critica do mesmo sob a ótica da engenharia civil, envolvendo aspectos de planejamento e execução de obras, com o objetivo de construir e divulgar ensinamentos que promovam a otimização, no desenvolvimento de obras semelhantes.Dissertação Acesso aberto (Open Access) Abordagem de leitura de texto em imagens provenientes de redes sociais para ganho em disponibilidade de dados(Universidade Federal do Pará, 2017-10-19) FERREIRA NETO, Luiz Cortinhas; SANTANA, Ádamo Lima de; http://lattes.cnpq.br/4073088744952858Este trabalho tem como objetivo propor uma adaptação metodológica no processo de análise de redes sociais, baseado na inclusão de texto obtido de imagens provenientes das próprias redes sociais. O processo de análise de sentimento é de fundamental importância para a inteligência de mercado, análise de produtos, para os processos de CRM e SCRM, uma vez que estes são tendências de mercado utilizadas por grandes empresas, que acabam, portanto, auxiliando na atração de incentivos financeiros e motivando a pesquisa. A modificação metodológica aplicada neste trabalho tem sua importância fundamentada na disponibilidade de dados, que tem se tornado cada vez mais restrita, graças a utilização de API’s, que são as interfaces de gerenciamento de acesso aos dados onde, de várias maneiras diferentes, cada rede social limita a consulta de dados, seja por tipo de dado, quantidade coletada ou janela de coleta. Esta pesquisa demonstra, por meio de estudos de caso, que existe ganho de informação para o processo de análise de sentimentos ao incluir dados textuais proveniente de imagens.Dissertação Acesso aberto (Open Access) Uma abordagem heurística para os problemas de horários educacionais(Universidade Federal do Pará, 2020-12-15) REIS, Williams Sousa dos; QUARESMA, João Nazareno Nonato; http://lattes.cnpq.br/7826389991864785A cada novo período letivo, instituições de ensino têm o árduo trabalho de realizarem a alocação dos seus horários de aula, o problema implica em atribuir intervalos de tempo e recursos as atividades, de tal forma que satisfaçam as restrições impostas da melhor forma possível. Este é um problema considerado de difícil solução do ponto de vista da teoria da complexidade computacional. Pensando nisso, este trabalho tem como objetivo, desenvolver uma ferramenta que possa automatizar o processo de alocação de horários realizado pelo Instituto de Biodiversidade e Florestas (IBEF) da Universidade Federal do Oeste do Pará (UFOPA), apresentando uma proposta baseada na meta-heurística conhecida como algoritmo genético (AG). Esta proposta é submetida a vários experimentos com dados reais da referida instituição e os resultados são de plena satisfação, evidenciados pela superação das restrições impostas pelo problema em um tempo computacional aceitável, trazendo algumas vantagens com a automatização do processo, tais como: redução no tempo de desenvolvimento da alocação de horário; e uma melhor realocação e utilização dos recursos físicos e humanosDissertação Acesso aberto (Open Access) Uma abordagem híbrida e semiautomática para estimativa de regiões cobertas por nuvens e sombras em imagens de satélite: análise e avaliação(Universidade Federal do Pará, 2014-03-31) SOUSA, Danilo Frazão; PELAES, Evaldo Gonçalves; http://lattes.cnpq.br/0255430734381362Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.Tese Acesso aberto (Open Access) Abordagem Inteligente com Combinação de Características Estruturais para Detecção de Novas Famílias de Ransomware(Universidade Federal do Pará, 2024-03-22) MOREIRA, Caio Carvalho; SALES JÚNIOR, Claudomiro de Souza de; País de Nacionalidade BrasiRansomware é um software malicioso que tem como objetivo criptografar os arquivos do usuá- rio e exigir um resgate para desbloqueá-los. Trata-se de uma ameaça cibernética que pode causar significativos danos financeiros, além do comprometimento de privacidade e integridade dos dados. Embora os scanners de detecção baseados em assinaturas comumente combatam essa ameaça, eles falham na identificação de famílias (variantes) desconhecidas de ransomware. Um método para detectar novas ameaças sem a necessidade de executá-las é a análise estática, que inspeciona o código e a estrutura do software, juntamente com a classificação através de abordagens inteligentes. A Detecção de Novas Famílias de Ransomware (DNFR) pode ser avaliada em um cenário realista e desafiador pela categorização e isolamento de famílias para treinamento e teste. Desta forma, o objetivo desta tese é desenvolver um modelo eficaz de análise estática para a DNFR, que pode ser aplicado em sistemas Windows como uma camada adicional de segurança para verificar os arquivos executáveis no momento do recebimento ou antes de sua execução. A detecção precoce do ransomware é fundamental para reduzir a probabilidade de um ataque bem-sucedido. A abordagem proposta analisa abrangentemente os binários executá- veis, ao extrair e combinar diversas características estruturais, e os distingue entre ransomware ou software benigno empregando um modelo de votação suave que compreende três técnicas de Aprendizado de Máquina: Logistic Regression (LR), Random Forest (RF) e eXtreme Gradient Boosting (XGB). Os resultados para a DNFR demonstraram médias de 97,53% de acurácia, 96,36% de precisão, 97,52% de recall e 96,41% de F-measure. Além disso, a varredura e a predição de amostras individuais levaram uma média de 0,37 segundos. Essa performance indica sucesso na identificação rápida de variantes desconhecidas de ransomware e na adaptabilidade do modelo ao cenário em constante evolução, o que sugere sua aplicabilidade em sistemas de proteção antivírus, mesmo em dispositivos com recursos limitados. Portanto, o método oferece vantagens significativas e pode ajudar desenvolvedores de sistemas de detecção de ransomware na criação de soluções mais resilientes, confiáveis e com rápido tempo de resposta.Tese Acesso aberto (Open Access) Uma abordagem matemática aplicada ao projeto de turbinas hidrocinéticas e eólicas com difusor utilizando a teoria do elemento de pá(Universidade Federal do Pará, 2019-04-30) VAZ, Déborah Aline Tavares Dias do Rio; VAZ, Jerson Rogério Pinheiro; http://lattes.cnpq.br/1623983294183975Estudos têm demonstrado que é possível aumentar significativamente a potência gerada por uma turbina quando se utiliza um difusor. Este efeito desperta interesse, pois mostra teoricamente a possibilidade de atingir um coeficiente de potência cerca de 2 vezes maior que uma turbina comum. No entanto, o efeito da eficiência do difusor não havia sido implementado até então na Teoria do Elemento de Pá (BEM), bem como a otimização de rotores eólicos e hidrocinéticos sob efeito difusor. Assim, este trabalho apresenta uma nova abordagem matemática destinada ao projeto de turbinas hidrocinéticas considerando o efeito difusor. Com base no BEM, novas expressões para o fator de indução axial e empuxo foram obtidas, nas quais tanto a eficiência quanto o carregamento gerado sobre um difusor foram considerados, além da utilização do critério do coeficiente mínimo de pressão para evitar cavitação no processo de otimização da corda de um rotor hidrocinético. Uma extensão da formulação existente na literatura para o cálculo do coeficiente de potência a casos em que a perda no difusor é considerada através da inclusão dos termos de eficiência (𝜂𝑑) e razão de área (β) no balanço de energia para turbinas ideais em dutos foi desenvolvida. Para avaliar o modelo proposto, um estudo comparativo de dois difusores diferentes (difusor cônico-flangeado e difusor lenteflangeado) foram realizados. Avaliações para turbina e difusor foram realizadas usando dados experimentais disponíveis na literatura. Resultados numéricos e teóricos foram comparados para uma turbina equipada com um difusor de eficiência 83%. A diferença relativa observada para o coeficiente de potência máximo entre o modelo proposto e um modelo de disco atuador com difusor foi de cerca de 5,3%. Para a turbina hidrocinética com difusor cônico-flangeado, a vazão mássica é cerca de 20% maior do que para uma turbina de escoamento livre, enquanto que para a turbina com difusor lente-flangeado, o aumento foi de apenas 2,4%. Além disso, para o difusor cônico-flangeado, a potência foi aumentada em 53%. Observou-se que o modelo do elemento de pá proposto com difusor obteve boa concordância com o modelo numérico, proporcionando melhores resultados em comparação com outras abordagens disponíveis na literatura. O modelo de otimização de corda proposto demonstra resultados satisfatórios em relação a prevenção da cavitação.Tese Acesso aberto (Open Access) Abordagem para o desenvolvimento de um etiquetador de alta acurácia para o Português do Brasil(Universidade Federal do Pará, 2011-10-21) DOMINGUES, Miriam Lúcia Campos Serra; FAVERO, Eloi Luiz; http://lattes.cnpq.br/1497269209026542A etiquetagem morfossintática é uma tarefa básica requerida por muitas aplicações de processamento de linguagem natural, tais como análise gramatical e tradução automática, e por aplicações de processamento de fala, por exemplo, síntese de fala. Essa tarefa consiste em etiquetar palavras em uma sentença com as suas categorias gramaticais. Apesar dessas aplicações requererem etiquetadores que demandem maior precisão, os etiquetadores do estado da arte ainda alcançam acurácia de 96 a 97%. Nesta tese, são investigados recursos de corpus e de software para o desenvolvimento de um etiquetador com acurácia superior à do estado da arte para o português brasileiro. Centrada em uma solução híbrida que combina etiquetagem probabilística com etiquetagem baseada em regras, a proposta de tese se concentra em um estudo exploratório sobre o método de etiquetagem, o tamanho, a qualidade, o conjunto de etiquetas e o gênero dos corpora de treinamento e teste, além de avaliar a desambiguização de palavras novas ou desconhecidas presentes nos textos a serem etiquetados. Quatro corpora foram usados nos experimentos: CETENFolha, Bosque CF 7.4, Mac-Morpho e Selva Científica. O modelo de etiquetagem proposto partiu do uso do método de aprendizado baseado em transformação(TBL) ao qual foram adicionadas três estratégias, combinadas em uma arquitetura que integra as saídas (textos etiquetados) de duas ferramentas de uso livre, o TreeTagger e o -TBL, com os módulos adicionados ao modelo. No modelo de etiquetador treinado com o corpus Mac-Morpho, de gênero jornalístico, foram obtidas taxas de acurácia de 98,05% na etiquetagem de textos do Mac-Morpho e 98,27% em textos do Bosque CF 7.4, ambos de gênero jornalístico. Avaliou-se também o desempenho do modelo de etiquetador híbrido proposto na etiquetagem de textos do corpus Selva Científica, de gênero científico. Foram identificadas necessidades de ajustes no etiquetador e nos corpora e, como resultado, foram alcançadas taxas de acurácia de 98,07% no Selva Científica, 98,06% no conjunto de teste do Mac-Morpho e 98,30% em textos do Bosque CF 7.4. Esses resultados são significativos, pois as taxas de acurácia alcançadas são superiores às do estado da arte, validando o modelo proposto em busca de um etiquetador morfossintático mais confiável.Dissertação Acesso aberto (Open Access) Uma abordagem para otimização do período de sensoriamento em rádio cognitivo com algoritmo genético multiobjetivo(Universidade Federal do Pará, 2011-08-25) YOSHIOKA, Peterson Marcelo Santos; COSTA JÚNIOR, Carlos Tavares da; http://lattes.cnpq.br/6328549183075122A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.Dissertação Acesso aberto (Open Access) Abordagem probabilística para caracterização do sistema de marcação de sequenciamento multiplex na plataforma ABI SOLID(Universidade Federal do Pará, 2011-07-01) LOBATO, Fábio Manoel França; SANTANA, Ádamo Lima de; http://lattes.cnpq.br/4073088744952858Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.Tese Acesso aberto (Open Access) Uma abordagem SDN para virtualização de redes(Universidade Federal do Pará, 2016-11-25) PINHEIRO, Billy Anderson; ABELÉM, Antônio Jorge Gomes; http://lattes.cnpq.br/5376253015721742As Redes Virtuais Denidas por Software (virtual SDN networks - vSDNs) surgiram da associac~ao de virtualizac~ao e Redes Denidas por Software (Software-Dened Networking - SDN), proporcionando maior controle e melhor utilização dos recursos de rede. Vários trabalhos ja mostraram a viabilidade e benefícios dessa abordagem. No entanto, o tema ainda carece de soluções que possam virtualizar uma rede de forma escalável, intuitiva e simplificada. Desta forma, esta Tese propõe uma abordagem SDN para a virtualização de redes com o objetivo de reduzir as limitações em vSDNs. Sendo assim, sugere-se adotar na virtualização de rede a separação entre planos de dados (distribuído) e controle (centralizado), visão global da rede e uso de abstração de fluxo para gerir a comunicação entre os diferentes pontos. Para sustentar nossa proposição, três soluções foram desenvolvidas: o CIM-SDN (Common Information Model for Software-Dened Networking), para viabilizar o uso de representação formal dos novos elementos das vSDNs; o NVP (Network Virtualization Proxy), para prover maior escalabilidade através da separação do plano de controle em partes centralizadas e descentralizadas; e o GVL (Graph Virtualization Layer), para fornecer maior uso de abstrações entre o hypervisor e os controladores simplicando, assim, o entendimento e uso da rede. Foram realizadas provas de conceitos para as três soluções propostas, demonstrando a viabilidade da abordagem.Dissertação Acesso aberto (Open Access) Absorção de gases da queima de combustíveis fósseis em torre de recheio estruturado utilizando lama vermelha(Universidade Federal do Pará, 2013-03-11) SANTOS, Iara Ferreira; SOUZA, José Antônio da Silva; http://lattes.cnpq.br/6157348947425968; SOUZA, Célio Augusto Gomes de; http://lattes.cnpq.br/0800747860976046A produção de alumina pelo processo Bayer produz de 1 a 3 toneladas de resíduo por tonelada de alumínio. Esse resíduo é denominado lama vermelha, composto de minerais não solúveis em hidróxido de sódio concentrado, como hematita e outros óxidos férreos, quartzo e óxidos de titânio. A lama vermelha possui em sua composição variados teores de NaOH, dependendo especificamente da planta industrial utilizada. A proposta desse trabalho é avaliar o processo de absorção de gases provenientes de uma caldeira em contracorrente com uma suspensão de lama vermelha a 27%, em torre spray e em torre de recheio estruturado. Foram realizados experimentos variando-se o tipo de torre de absorção, temperatura da fase líquida e teor de sólidos na fase líquida para avaliar a redução do teor dos gases de combustão na saída da torre de absorção e a variação do pH de acordo com o tempo de operação, para que fosse possível identificar o tempo necessário para que ocorra a neutralização da lama vermelha, bem como a redução no teor de dióxido de carbono, para isso foram realizadas medições dos teores de gases na entrada e na saída da torre de recheio estruturado, bem como medições de temperatura e pH. A absorção de CO2 presente no gás de combustão pela suspensão de lama vermelha se dá pelo processo da carbonatação, no qual o gás reage com o NaOH presente na lama vermelha, sendo a água o catalisador. Os resultados obtidos após os experimentos foram satisfatórios, e concluiu-se que o processo realizado nas torres de absorção é eficiente para a diminuição do pH da lama vermelha e a redução do teor de CO2 liberado para a atmosfera, promovendo um ganho duplo para o meio ambiente.Dissertação Acesso aberto (Open Access) Absorção do dióxido de carbono por resíduo de bauxita em torres de absorção(Universidade Federal do Pará, 2013-03-04) BOTELHO, Fernando Aracati; MACÊDO, Emanuel Negrão; http://lattes.cnpq.br/8718370108324505; SOUZA, José Antônio da Silva; http://lattes.cnpq.br/6157348947425968Um dos problemas ambientais mais discutidos atualmente no cenário mundial são o aquecimento global e suas implicações. Apesar de o efeito estufa ser um fenômeno natural, o aumento nas emissões de gases como o CO2 proveniente do processo de combustão, pode favorecer o seu agravamento. Seguindo essa vertente, existe o interesse na realização de pesquisas para minimizar a liberação deste gás na atmosfera. Este trabalho, tem por finalidade estudar o processo de absorção do dióxido de carbono pela fase aquosa do resíduo de bauxita (soda e íons dissolvidos em solução) em torre de aspersão e em torre de selas randômicas (ambas em escala piloto), bem como verificar a alteração do pH nesse processo de absorção para ambas as torres. Avaliar a alteração do pH e a capacidade de absorção do CO2, considerando as seguintes variáveis: O tipo de torre de absorção, o uso do sobrenadante como meio absorvente e o uso da suspensão aquecida por resistências. Os resultados mostraram que a suspensão do resíduo de bauxita absorveu quantidade significativa de CO2, tanto na torre de aspersão quanto na torre de selas. A taxa de absorção média ficou em torno de 8,42% para a torre de aspersão e 9,34% para a torre de selas. A capacidade de carbonatação da suspensão à 27%-p ficou em torno de 33,3 Kg CO2 por tonelada de resíduo e houve uma redução substancial da alcalinidade do resíduo através da reação com os efluentes gasosos, com uma diminuição média de 4,0 e 3,5 unidades de pH para a torre de selas e de aspersão respectivamente.Dissertação Acesso aberto (Open Access) Ação do vento na estabilidade global efeitos de segunda ordem em estruturas de concreto armado na cidade de Belém-PA(Universidade Federal do Pará, 2018-02-23) MEDEIROS, José Odilon Barros de; MACEDO, Alcebíades Negrão; http://lattes.cnpq.br/8313864897400179Devido ao crescimento exponencial das populações urbanas, a necessidade por espaço para habitação tem crescido significativamente. Para atender essas demandas, edificações cada vez mais altas e esbeltas são projetadas, sempre objetivando a necessidade da redução dos custos e elevação da margem lucrativa por parte das empresas construtoras. Novos materiais e métodos de análise estrutural são criados e aprimorados para que seja extraído o máximo de desempenho e segurança estrutural com o menor custo. Deste modo, esta dissertação tem o objetivo de contribuir para os estudos referentes à análise da estabilidade global e avaliação dos efeitos de 2ª ordem nas estruturas, a partir da análise comparativa dos parâmetros de estabilidade, com as premissas descritas na NBR 6118 (2014). Em relação ao estado limite último, foram avaliados os seguintes coeficientes: α e γz - sugeridos pela NBR 6118 (2014), bem como FAVt e 𝑅𝑀2𝑀1 - obtidos pelo Sistema CAD/TQS. No que concerne ao estado limite de serviço, foram analisados e comparados com os limites normativos os resultados relativos aos deslocamentos horizontais no topo das edificações. Para tal, foram realizadas modelagens computacionais representando nove estruturas fictícias distintas submetidas às ações das cargas usuais de projeto atuantes sobre edifícios residenciais, conforme os aspectos da NBR 6120 (1980), além da avaliação quanto à influência da consideração das cargas de vento nos referidos modelos estruturais. No que se refere ao desenvolvimento das estruturas, foram empregadas técnicas usuais de discretização, via método dos elementos finitos, por meio do programa CAD/TQS. A partir da obtenção dos resultados, foi constatado que nas estruturas mais altas os parâmetros relativos ao ELU e ELS superaram os limites normativos, e que o fato relativo à desconsideração da ação do vento nas estruturas pode comprometer de maneira significativa o comportamento e a segurança estrutural, uma vez que os esforços finais de 1ª e 2ª ordens calculados podem ser até 41% inferiores em relação aos esforços calculados mediante aplicação dos critérios descritos na NBR 6123 (1988), ocasionando por sua vez estruturas subdimensionadas e consequentemente, levando tais estruturas a resultados catastróficos, como a ruína através de colapso progressivo.Dissertação Acesso aberto (Open Access) Acionamento vetorial por controlador fuzzy modo deslizante de motor de indução(Universidade Federal do Pará, 2010-05-20) TEIXEIRA, Raphael Barros; BARRA JUNIOR, Walter; http://lattes.cnpq.br/0492699174212608; BARREIROS, José Augusto Lima; http://lattes.cnpq.br/1246564618922453Este trabalho estuda a técnica de acionamento vetorial aplicado ao motor de indução trifásico (MIT), utilizando como estratégia de controle a combinação de controle fuzzy com controladores chaveados do tipo modo deslizante, em uma configuração aqui denominada de Controlador Fuzzy Modo Deslizante (FSMC – Do inglês: Fuzzy Sliding Mode Control). Um modelo dinâmico do MIT é desenvolvido em variáveis ‘d-q’ o que conduziu a um modelo eletromecânico em espaço de estados que exibe fortes não linearidades. A este modelo são aplicadas as condições de controle vetorial que permitem desacoplar o torque e o fluxo no MIT, de maneira que o seu comportamento dinâmico se assemelha àquele verificado em uma máquina de corrente contínua. Nesta condição, são implementados controladores do tipo proporcional e integral (PI) às malhas de controle de corrente e velocidade do motor, e são realizadas simulações computacionais para o rastreamento de velocidade e perturbação de carga, o que levam a resultados satisfatórios do ponto de vista dinâmico. Visando investigar o desempenho das estratégias não lineares nesta abordagem é apresentado o estudo da técnica de controle a estrutura chaveada do tipo modo deslizante. Um controlador modo deslizante convencional é implementado, onde se verifica que, a despeito do excelente desempenho dinâmico a ocorrência do fenômeno do “chettering” inviabiliza a aplicação desta estratégia em testes reais. Assim, é proposta a estratégia de controle FSMC, buscando associar o bom resultado dinâmico obtido com o controlador modo deslizante e a supressão do fenômeno do chettering, o que se atinge pela definição de uma camada de chaveamento do tipo Fuzzy. O controlador FSMC proposto é submetido aos mesmos testes computacionais que o controlador PI, conduzindo a resultados superiores a este último no transitório da resposta dinâmica, porém com a presença de erro em regime permanente. Para atacar este problema é implementada uma combinação Fuzzy das estratégias FSMC com a ação de controle PI, onde o primeiro busca atuar em regiões afastadas da superfície de chaveamento e o segundo busca introduzir o efeito da ação integral próximo à superfície. Os resultados obtidos mostram a viabilidade da estratégia em acionamento de velocidade variável que exigem elevado desempenho dinâmico.Tese Acesso aberto (Open Access) Aço inoxidável nanoestruturado produzido via soldagem a arco elétrico.(Universidade Federal do Pará, 2021-07-08) LOAYZA, Cristhian Ricardo; BRAGA, Eduardo de Magalhães; http://lattes.cnpq.br/4783553888547500Métodos de fabricação de compósitos de aço inoxidável nanoestruturados (CAIN) ainda não foram desenvolvidos com aplicabilidade industrial. Para corrigir tal carência, investigou-se a possibilidade de incorporar nanopartículas por soldagem a arco elétrico, usando uma vareta tubular preenchida com fluxo nanoestruturado composto de nanotubos de carbono de paredes múltiplas (NTCPM) e partículas de aço inoxidável 304L. Este fluxo foi fabricado por dois métodos diferentes: síntese mecânica (SM) e tratamento químico (TQ) com peróxido de hidrogênio. O segundo mostrou resultados mais promissores usando controle dos parâmetros cinéticos de tempo e temperatura, obtendo um menor grau de carbono amorfo, impurezas e defeitos, incrementando por sua vez a cristalinidade e interação dos nanotubos com a matriz metálica. A adição de NTCPM diminuiu em 64% o tamanho do grão, quando comparado com o revestimento de aço inoxidável, possuindo uma matriz austenítica com precipitação de carbonetos nos espaços interdendríticos e contornos do grão. A microdureza incrementou 45% e a taxa de erosão por cavitação vibratória decresceu 64%, em relação ao revestimento de AISI 304L. Adicionalmente, as análises por raios X mostraram uma redução da fase γ(200) e um crescimento da γ(111), após o processo de cavitação. O método de fabricação dos nanocompósitos se mostrou viável economicamente e com possibilidade de imediata aplicação a grande escala.Dissertação Acesso aberto (Open Access) Ações de eficiência energética em navios: estudo de caso e um navio patrulha da Marinha do Brasil(Universidade Federal do Pará, 2016-08-26) AQUINO, Suzane Cruz de; MORAES, Hito Braga de; http://lattes.cnpq.br/5044859479302394; TOSTES, Maria Emília de Lima; http://lattes.cnpq.br/4197618044519148Devido à crescente preocupação com o meio ambiente, a IMO (International Maritime Organization), através da MARPOL (International Convention for the Prevention of Pollution from Ships), criou a primeira norma obrigatória do setor sobre a eficiência energética dos navios, buscando a diminuição das emissões de gases de efeito estufa e de custos relacionados ao consumo de energia. Esta dissertação tem como objetivo propor uma metodologia de medidas de eficiência energética em navios, aplicando-a a um navio patrulha da Marinha do Brasil. O navio analisado, o P-49 ou Guarujá, é uma embarcação de 19 anos, sendo também a idade de quase todos os equipamentos que o compõem. O Guarujá possui o sistema de propulsão totalmente isolado eletricamente da geração de energia elétrica, então, os sistemas alvo dessa pesquisa foram aqueles com maior demanda de energia elétrica: o sistema de iluminação, de refrigeração, de geração de energia elétrica, de salvamento e as câmaras frigoríficas. No entanto, as informações disponíveis dos sistemas acima citados se mostraram escassas, assim, explorou-se apenas as lâmpadas e alguns motores elétricos de bombas, compressores e ventiladores. As ações propostas para os equipamentos disponíveis a verificação foram 1 - a troca das lâmpadas do caso referência por lâmpadas LED; e 2 - a substituição dos motores elétricos por exemplares similares de maior rendimento. As medidas foram analisadas financeira e ambientalmente através do software RETScreen, importante ferramenta para estudos em eficiência energética e fontes renováveis desenvolvida pelo Governo do Canadá; com auxílio do simulador do PROCEL, o BD Motor, promovendo maior enfoque sobre os motores devido a sua complexidade e importância no ótimo funcionamento dos sistemas do navio. As ações se mostraram viáveis, com o tempo de retorno total de 2 anos, diminuindo a emissão de 164 toneladas de CO2 na atmosfera em 20 anos e economizando cerca de R$ 352.974,80 ao fim da vida do projeto, justificando, assim, a sua execução.Dissertação Acesso aberto (Open Access) Acompanhamento e avaliação de projetos através da monitoração de eventos em um ambiente de gestão de processos de software(Universidade Federal do Pará, 2007-07-04) PAXIÚBA, Carla Marina Costa; REIS, Rodrigo Quites; http://lattes.cnpq.br/9839778710074372Uma das maiores dificuldades encontradas no gerenciamento de projetos de software é saber a dimensão do que está sendo gerenciado. Inúmeras dúvidas são pertinentes aos gerentes de projeto quando se fala em dimensionamento, prazo e custo dos projetos. Neste contexto pesquisas mostram que a minoria dos projetos são finalizados no tempo e orçamento estimados e com todas as funcionalidades acordadas implementadas. Os demais projetos, ou são finalizados com prazos e custos ultrapassados ou não chegam a serem concluídos. A gestão de projetos e produtos de software somente atinge o nível desejado de eficácia e exatidão se houver medidas que possibilitem gerenciar através de fatos. E, mais importante do que estabelecer estas medidas é acompanhá-las durante toda a execução dos projetos. O trabalho apresentado nesta dissertação propõe um acompanhamento de projetos eficiente, guiada pelas normas das principais abordagens de melhoria de processo existente e fazendo uso do acompanhamento das métricas como ferramenta fundamental para uma efetiva gerência de projetos. Este acompanhamento será obtido através da extensão do mecanismo de registro de eventos do ambiente de gerenciamento de processos WebAPSEE e emissão extração de relatórios gerenciais de acompanhamento de projetos que estão alinhados com os requisitos definidos pelas abordagens de melhoria de processo propostos por modelos como o CMMI e MPS-BR. A proposta foi avaliada através de uma análise crítica envolvendo a simulação da execução de um projeto e realização de seu acompanhamento através da ferramenta proposta.Dissertação Acesso aberto (Open Access) Acoplamento de modos guiados em cabos de pares trançados utilizando antenas com simetria radial no cenário terabit DSL(Universidade Federal do Pará, 2020-03-26) SOUSA, Brenda Penedo Tavares de; COSTA, João Crisóstomo Weyl Albuquerque; http://lattes.cnpq.br/9622051867672434O desenvolvimento dos padrões de transmissão de dados e tecnologias de acesso sempre vem atrelado com a necessidade de suprir altas taxas de dados. Assim, tecnologias já implantadas, como exemplo o sistema DSL (Digital Subscriber Line) que utiliza pares trançados para transmissão, vem se ajustando para conseguir atender essa crescente demanda de dados. No sistema DSL, os pares trançados são utilizados como linha de transmissão, utilizando o modo transversal eletromagnético (TEM). Entretanto, as limitações físicas do par trançado como linha de transmissão impedem que o sistema alcance taxas mais elevadas, necessárias para suportar aplicações da quinta geração (5G). Recentemente, foi proposta a utilização de outros modos de transmissão no par trançado, os modos guiados de ordem superior, como alternativa para que essa infraestrutura consiga suportar taxas de transmissão da ordem de Terabits por segundo (Tbps), denominada como a tecnologia Terabit DSL (TDSL). Porém, um dos desafios para esta implementação é o acoplamento dos modos guiados no par trançado, já que não são amplamente explorados no contexto de propagação dos modos guiados de ordem superior, como acontece com guias de onda mais simples, como exemplo de Sommerfeld e Goubau. Neste cenário, esta dissertação tem como objetivo avaliar o acoplamento do sinal radiado entre uma antena com propagação radial e um cabo de pares trançados, analisando o comportamento eletromagnético das estruturas. Considerando que o cabo de pares trançados não tem um modelo analítico fechado para o comportamento dos modos de ordem superior, que se propagam ao longo deles, todos os resultados foram obtidos a partir de simulações numéricas no software HFSS (High Frequency Structure Simulator). Esses resultados são em termos do parâmetro de espalhamento da antena e do campo eletromagnético no cabo, sendo possível avaliar a eficiência de acoplamento, o guiamento do sinal e prever a taxa de transmissão disponível aos usuários. Os resultados obtidos mostraram que o acoplamento entre a antena e o cabo de pares trançados sem blindagem alcançou níveis de até 83,83% em frequências de 0,15 THz, demonstrando uma alta eficiência de acoplamento quando comparada com cenários mais simples da literatura, que alcançam níveis em média de 67%. Verificou-se que a utilização desses cabos para transmissão de dados é eficaz, conseguindo entregar taxas de até 1,737 Tbps em cabos de até 10 metros, enquanto que as previsões de taxa para o cenário TDSL que consideram o acoplamento 100% alcançam níveis de 2,013 Tbps.
