Use este identificador para citar ou linkar para este item: https://repositorio.ufpa.br/jspui/handle/2011/16686
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSILVA, Daniel Abreu Macedo da-
dc.date.accessioned2024-12-17T15:35:17Z-
dc.date.available2024-12-17T15:35:17Z-
dc.date.issued2023-09-01-
dc.identifier.citationSILVA, Daniel Abreu Macedo da. Analysis of classical and advanced control techniques tuned with reinforcement learn9ing. Orientador: Antonio da Silva Silveira. 2023. 111 f.Dissertação (Mestrado em Engenharia Elétrica) - Instituto de Tecnologia, Universidade Federal do Pará, Belém, 2023. Disponível em: https://repositorio.ufpa.br/jspui/handle/2011/16686. Acesso em:.pt_BR
dc.identifier.urihttps://repositorio.ufpa.br/jspui/handle/2011/16686-
dc.description.abstractControl theory is used to stabilize systems and obtain specific responses for each type of process. Classic controllers, such as the PID used in this research, are spread globally in industries because they have well studied topologies in the literature and are easily applied in microcontrollers or programmable lógic devices; advanced ones,such as GMV, GPC and LQR, also used in this work, have some resistance in common applications in base industries, but are widely used in energy, aerospace and robotic systems, since the complexity and structure of these methods generate robustness and reach satisfactory performances for processes that are difficult to control. In this work, these methods are studied and evaluated with a tuning approach that uses re inforcement learning. The tuning methods are used in two forms and are applied to the controllers, these are the Repeat and Improve method and the Differential Games method. The first works using offline iterations, where the process agent is the chosen control technique, which selects performance and robustness indexes as an environment (metric of how the process is evolving), being able to organize an adjustment policy for the controller, which is based on rewarding the weighting factor until reaching the process stopping criterion (desired response). The second method uses reinforcement strategies that reward the controller as the response changes, so the LQR learns the ideal control policies, adapting to changes in the environment, which allows for better performance by recalculating the traditional gains found. With the Ricatti equation for tuning the regulator; in this method, differential games are used as a framework to model and analyze dynamic systems with multiple agents. To validate what is presented, the Tachogenerator Motor and the Ar Drone have been chosen. The Tachogenerator Motor is modeled with least squares estimation in an ARX-SISO topology, in order to evaluate the first tuning method. The Ar Drone is modeled with a state space approach to evaluate the second tuning method.pt_BR
dc.description.provenanceSubmitted by Luciclea Silva (luci@ufpa.br) on 2024-12-17T15:34:51Z No. of bitstreams: 2 Dissertacao_AnalysisClassicalAdvances.pdf: 6444836 bytes, checksum: beca30b9eec90caea14f420a364607e6 (MD5) license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)en
dc.description.provenanceApproved for entry into archive by Luciclea Silva (luci@ufpa.br) on 2024-12-17T15:35:17Z (GMT) No. of bitstreams: 2 Dissertacao_AnalysisClassicalAdvances.pdf: 6444836 bytes, checksum: beca30b9eec90caea14f420a364607e6 (MD5) license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)en
dc.description.provenanceMade available in DSpace on 2024-12-17T15:35:17Z (GMT). No. of bitstreams: 2 Dissertacao_AnalysisClassicalAdvances.pdf: 6444836 bytes, checksum: beca30b9eec90caea14f420a364607e6 (MD5) license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Previous issue date: 2023-09-01en
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal do Parápt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.source.uriDisponível na internet via correio eletrônico:bibliotecaitec@ufpa.brpt_BR
dc.subjectTeoria do controlept_BR
dc.subjectInteligência artificialpt_BR
dc.subjectControle programáveispt_BR
dc.subjectControl theoryen
dc.subjectArtificial intelligenceen
dc.subjectProgramables controllersen
dc.titleAnalysis of classical and advanced control techniques tuned with reinforcement learningpt_BR
dc.typeDissertaçãopt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto de Tecnologiapt_BR
dc.publisher.initialsUFPApt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA ELETRICA::TELECOMUNICACOESpt_BR
dc.contributor.advisor1SILVEIRA, Antonio da Silva-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1828468407562753pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/6083697479212017pt_BR
dc.description.resumoA teoria de controle é utilizada para estabilizar sistemas e obter respostas específicas para cada tipo de processo. Controladores clássicos, como o PID utilizado nesta pesquisa, são difundidos globalmente nas indústrias, isto por possuírem topologias bem estudadas pela literatura e serem facilmente aplicados em microcontroladores ou controladores lógico programáveis; já os avançados, como GMV, GPC e LQR também utilizados neste trabalho, possuem certa resistência em aplicações comuns das indústrias de base, mas são muito utilizados em sistemas de energia, aerospaciais e robóticos, pois a complexidade e estrutura desses métodos gera robustez e alcança desempenhos satisfatórios para processos de difícil controle. Neste trabalho, esses métodos são estudados e avaliados com uma abordagem de sintonia que utiliza o aprendizado por reforço. São aplicadas duas formas de sintonia para os controladores, estas são o método da Repetição e Melhora e o método de Jogos Diferenciais. O primeiro utiliza iterações offline, onde o agente do processo é a técnica de controle escolhida, que trabalha com os índices de desempenho e robustez como ambiente (métrica de como o processo está evoluindo), sendo capaz de organizar uma política de ajuste para o controlador, que se baseia em recompensar o fator de ponderação até obter o critério de parada do processo (resposta desejada). O segundo método se baseia em utilizar estratégias de reforço que recompensam o controlador conforme a resposta se modifica, assim o LQR aprende as políticas de controle ideais, adaptando se às mudanças do ambiente, o que permite obter melhor desempenho por recalcular os tradicionais ganhos encontrados com a equação de Ricatti para sintonia do regulador; neste método, os jogos diferenciais são utilizados como uma estrutura para modelar e analisar sistemas dinâmicos com múltiplos agentes. Para validar o que é apresentado, o Motor Tacogerador e o Ar Drone são escolhidos. O Motor Tacogerador é modelado com a estimação dos mínimos quadrados em uma estrutura ARX-SISO para avaliação do primeiro método de sintonia. O Ar Drone é modelado com uma abordagem em espaço de estados para avaliação do segundo método de sintonia.pt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétricapt_BR
dc.subject.linhadepesquisaALTA TENSÃOpt_BR
dc.subject.areadeconcentracaoSISTEMAS DE ENERGIA ELÉTRICA-
Aparece nas coleções:Dissertações em Engenharia Elétrica (Mestrado) - PPGEE/ITEC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Dissertacao_AnalysisClassicalAdvances.pdf6,29 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons