Logo do repositório
Tudo no RIUFPA
Documentos
Contato
Sobre
Ajuda
  • Português do Brasil
  • English
  • Español
  • Français
Entrar
Novo usuário? Clique aqui para cadastrar. Esqueceu sua senha?
  1. Início
  2. Pesquisar por Assunto

Navegando por Assunto "Programables controllers"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 1 de 1
  • Resultados por página
  • Opções de Ordenação
  • Carregando...
    Imagem de Miniatura
    DissertaçãoAcesso aberto (Open Access)
    Analysis of classical and advanced control techniques tuned with reinforcement learning
    (Universidade Federal do Pará, 2023-09-01) SILVA, Daniel Abreu Macedo da; SILVEIRA, Antonio da Silva; http://lattes.cnpq.br/1828468407562753
    A teoria de controle é utilizada para estabilizar sistemas e obter respostas específicas para cada tipo de processo. Controladores clássicos, como o PID utilizado nesta pesquisa, são difundidos globalmente nas indústrias, isto por possuírem topologias bem estudadas pela literatura e serem facilmente aplicados em microcontroladores ou controladores lógico programáveis; já os avançados, como GMV, GPC e LQR também utilizados neste trabalho, possuem certa resistência em aplicações comuns das indústrias de base, mas são muito utilizados em sistemas de energia, aerospaciais e robóticos, pois a complexidade e estrutura desses métodos gera robustez e alcança desempenhos satisfatórios para processos de difícil controle. Neste trabalho, esses métodos são estudados e avaliados com uma abordagem de sintonia que utiliza o aprendizado por reforço. São aplicadas duas formas de sintonia para os controladores, estas são o método da Repetição e Melhora e o método de Jogos Diferenciais. O primeiro utiliza iterações offline, onde o agente do processo é a técnica de controle escolhida, que trabalha com os índices de desempenho e robustez como ambiente (métrica de como o processo está evoluindo), sendo capaz de organizar uma política de ajuste para o controlador, que se baseia em recompensar o fator de ponderação até obter o critério de parada do processo (resposta desejada). O segundo método se baseia em utilizar estratégias de reforço que recompensam o controlador conforme a resposta se modifica, assim o LQR aprende as políticas de controle ideais, adaptando se às mudanças do ambiente, o que permite obter melhor desempenho por recalcular os tradicionais ganhos encontrados com a equação de Ricatti para sintonia do regulador; neste método, os jogos diferenciais são utilizados como uma estrutura para modelar e analisar sistemas dinâmicos com múltiplos agentes. Para validar o que é apresentado, o Motor Tacogerador e o Ar Drone são escolhidos. O Motor Tacogerador é modelado com a estimação dos mínimos quadrados em uma estrutura ARX-SISO para avaliação do primeiro método de sintonia. O Ar Drone é modelado com uma abordagem em espaço de estados para avaliação do segundo método de sintonia.
Logo do RepositórioLogo do Repositório
Nossas Redes:

DSpace software copyright © 2002-2026 LYRASIS

  • Configurações de Cookies
  • Política de Privacidade
  • Termos de Uso
  • Entre em Contato
Brasão UFPA