Analysis of classical and advanced control techniques tuned with reinforcement learning

Imagem de Miniatura

Data

01-09-2023

Afiliação

Título da Revista

ISSN da Revista

Título de Volume

item.page.theme

Tipo de acesso

Acesso AbertoAttribution-NonCommercial-NoDerivs 3.0 Brazilaccess-logo

Contido em

Citar como

SILVA, Daniel Abreu Macedo da. Analysis of classical and advanced control techniques tuned with reinforcement learn9ing. Orientador: Antonio da Silva Silveira. 2023. 111 f.Dissertação (Mestrado em Engenharia Elétrica) - Instituto de Tecnologia, Universidade Federal do Pará, Belém, 2023. Disponível em: https://repositorio.ufpa.br/jspui/handle/2011/16686. Acesso em:.

DOI

A teoria de controle é utilizada para estabilizar sistemas e obter respostas específicas para cada tipo de processo. Controladores clássicos, como o PID utilizado nesta pesquisa, são difundidos globalmente nas indústrias, isto por possuírem topologias bem estudadas pela literatura e serem facilmente aplicados em microcontroladores ou controladores lógico programáveis; já os avançados, como GMV, GPC e LQR também utilizados neste trabalho, possuem certa resistência em aplicações comuns das indústrias de base, mas são muito utilizados em sistemas de energia, aerospaciais e robóticos, pois a complexidade e estrutura desses métodos gera robustez e alcança desempenhos satisfatórios para processos de difícil controle. Neste trabalho, esses métodos são estudados e avaliados com uma abordagem de sintonia que utiliza o aprendizado por reforço. São aplicadas duas formas de sintonia para os controladores, estas são o método da Repetição e Melhora e o método de Jogos Diferenciais. O primeiro utiliza iterações offline, onde o agente do processo é a técnica de controle escolhida, que trabalha com os índices de desempenho e robustez como ambiente (métrica de como o processo está evoluindo), sendo capaz de organizar uma política de ajuste para o controlador, que se baseia em recompensar o fator de ponderação até obter o critério de parada do processo (resposta desejada). O segundo método se baseia em utilizar estratégias de reforço que recompensam o controlador conforme a resposta se modifica, assim o LQR aprende as políticas de controle ideais, adaptando se às mudanças do ambiente, o que permite obter melhor desempenho por recalcular os tradicionais ganhos encontrados com a equação de Ricatti para sintonia do regulador; neste método, os jogos diferenciais são utilizados como uma estrutura para modelar e analisar sistemas dinâmicos com múltiplos agentes. Para validar o que é apresentado, o Motor Tacogerador e o Ar Drone são escolhidos. O Motor Tacogerador é modelado com a estimação dos mínimos quadrados em uma estrutura ARX-SISO para avaliação do primeiro método de sintonia. O Ar Drone é modelado com uma abordagem em espaço de estados para avaliação do segundo método de sintonia.

browse.metadata.ispartofseries

Área de concentração

Linha de pesquisa

País

Brasil

Instituição(ões)

Universidade Federal do Pará

Sigla(s) da(s) Instituição(ões)

UFPA

item.page.isbn

Fonte

item.page.dc.location.country

Fonte URI

Disponível na internet via correio eletrônico:bibliotecaitec@ufpa.br