Please use this identifier to cite or link to this item: https://repositorio.ufpa.br/jspui/handle/2011/6311
metadata.dc.type: Dissertação
Issue Date: 31-Oct-2014
metadata.dc.creator: CARDOSO, Jorge Amaro de Sarges
metadata.dc.contributor.advisor1: FRANCÊS, Carlos Renato Lisboa
metadata.dc.contributor.advisor-co1: CARDOSO, Diego Lisboa
Title: Green markov - uma abordagem híbrida de política markoviana e simulação discreta para planejamento de alocação de usuários em redes macro-femto
metadata.dc.description.sponsorship: 
Citation: CARDOSO, Jorge Amaro de Sarges. Green markov - uma abordagem híbrida de política markoviana e simulação discreta para planejamento de alocação de usuários em redes macro-femto. Orientador: Carlos Renato Lisboa Frances; Coorientador: Diego Lisboa Cardoso. 2014. 77 f. Dissertação (Mestrado) - Dissertação (Mestrado em Engenharia Elétrica.) - Instituto de Tecnologia, Universidade Federal do Pará, Belém, 2014. Disponível em: http://repositorio.ufpa.br/jspui/handle/2011/6311. Acesso em:.
metadata.dc.description.resumo: O uso da comunicação de voz e dados através de dispositivos móveis vem aumentando significativamente nos últimos anos. Tal expansão traz algumas dificuldades inerentes, tais como: ampliação constante de capacidade das redes e eficiência energética. Neste contexto, vem se consolidando o conceito de Green networks, que se concentra no esforço para economia de energia e redução de CO2. Neste sentido, este trabalho propõe validar um modelo de uma política baseado em processo markoviano de decisão, visando a otimizar o consumo de energia, QoS e QoE, na alocação de usuários em redes macrocell e femtocell. Para isso o modelo foi inserido no simulador NS-2, aliando a solução analítica markoviana à flexibilidade característica da simulação discreta. A partir dos resultados apresentados na simulação, a política obteve uma economia significativa no consumo energético, melhorando a eficiência energética em até 4%, além de melhorar a qualidade de serviço em relação às redes macrocell e femtocell, demonstrando-se eficaz, de modo a alterar diretamente as métricas de QoS e de QoE.
Abstract: The use of voice and data communication via mobile devices has increased significantly in recent years. This expansion brings some difficulties such as: continuous expansion of network capacity and energy efficiency. In this context, has been consolidating the concept of Green Networks, which focuses on the effort to energy saving and CO2 reduction. Thus, this paper proposes validate a model of a policy based on Markov decision process to optimize energy consumption, QoS and QoE, in the allocation of macrocell and femtocell users in networks. For this the model was inserted into the network simulator NS-2, combining the Markov analytical solution to the characteristic flexibility of discrete simulation. From the results presented in the simulation, the policy obtained significant savings in energy consumption, improving energy efficiency by up to 4%, and improve the quality of service in relation to the macrocell and femtocell networks, demonstrating effective in order to directly change the metrics of QoS and QoE.
Keywords: Femtocell
Processo de Markov
Macrocell
Redes verde
Qualidade de Serviço - QoS
Qualidade de experiência
Green networks
Quality of service (QoS)
Quality of experience (QoE)
metadata.dc.subject.cnpq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO::HARDWARE
CNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::PROBABILIDADE::PROCESSOS MARKOVIANOS
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal do Pará
metadata.dc.publisher.initials: UFPA
metadata.dc.publisher.department: Instituto de Tecnologia
metadata.dc.publisher.program: Programa de Pós-Graduação em Engenharia Elétrica
metadata.dc.rights: Acesso Aberto
Appears in Collections:Dissertações em Engenharia Elétrica (Mestrado) - PPGEE/ITEC

Files in This Item:
File Description SizeFormat 
Dissertacao_GreenMarkovAbordageml.pdf990,7 kBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons