Logo do repositório
Tudo no RIUFPA
Documentos
Contato
Sobre
Ajuda
  • Português do Brasil
  • English
  • Español
  • Français
Entrar
Novo usuário? Clique aqui para cadastrar. Esqueceu sua senha?
  1. Início
  2. Pesquisar por Autor

Navegando por Autor "SILVA, Daniel Abreu Macedo da"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 1 de 1
  • Resultados por página
  • Opções de Ordenação
  • Carregando...
    Imagem de Miniatura
    DissertaçãoAcesso aberto (Open Access)
    Analysis of classical and advanced control techniques tuned with reinforcement learning
    (Universidade Federal do Pará, 2023-09-01) SILVA, Daniel Abreu Macedo da; SILVEIRA, Antonio da Silva; http://lattes.cnpq.br/1828468407562753
    A teoria de controle é utilizada para estabilizar sistemas e obter respostas específicas para cada tipo de processo. Controladores clássicos, como o PID utilizado nesta pesquisa, são difundidos globalmente nas indústrias, isto por possuírem topologias bem estudadas pela literatura e serem facilmente aplicados em microcontroladores ou controladores lógico programáveis; já os avançados, como GMV, GPC e LQR também utilizados neste trabalho, possuem certa resistência em aplicações comuns das indústrias de base, mas são muito utilizados em sistemas de energia, aerospaciais e robóticos, pois a complexidade e estrutura desses métodos gera robustez e alcança desempenhos satisfatórios para processos de difícil controle. Neste trabalho, esses métodos são estudados e avaliados com uma abordagem de sintonia que utiliza o aprendizado por reforço. São aplicadas duas formas de sintonia para os controladores, estas são o método da Repetição e Melhora e o método de Jogos Diferenciais. O primeiro utiliza iterações offline, onde o agente do processo é a técnica de controle escolhida, que trabalha com os índices de desempenho e robustez como ambiente (métrica de como o processo está evoluindo), sendo capaz de organizar uma política de ajuste para o controlador, que se baseia em recompensar o fator de ponderação até obter o critério de parada do processo (resposta desejada). O segundo método se baseia em utilizar estratégias de reforço que recompensam o controlador conforme a resposta se modifica, assim o LQR aprende as políticas de controle ideais, adaptando se às mudanças do ambiente, o que permite obter melhor desempenho por recalcular os tradicionais ganhos encontrados com a equação de Ricatti para sintonia do regulador; neste método, os jogos diferenciais são utilizados como uma estrutura para modelar e analisar sistemas dinâmicos com múltiplos agentes. Para validar o que é apresentado, o Motor Tacogerador e o Ar Drone são escolhidos. O Motor Tacogerador é modelado com a estimação dos mínimos quadrados em uma estrutura ARX-SISO para avaliação do primeiro método de sintonia. O Ar Drone é modelado com uma abordagem em espaço de estados para avaliação do segundo método de sintonia.
Logo do RepositórioLogo do Repositório
Nossas Redes:

DSpace software copyright © 2002-2025 LYRASIS

  • Configurações de Cookies
  • Política de Privacidade
  • Termos de Uso
  • Entre em Contato
Brasão UFPA