Use este identificador para citar ou linkar para este item:
https://repository.ufrpe.br/handle/123456789/4006
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Sampaio, Pablo Azevedo | - |
dc.contributor.author | Silva, Kenedy Felipe dos Santos da | - |
dc.date.accessioned | 2023-02-23T21:55:26Z | - |
dc.date.available | 2023-02-23T21:55:26Z | - |
dc.date.issued | 2021-07-20 | - |
dc.identifier.citation | SILVA, Kenedy Felipe dos Santos da. Teacher-Student aplicado a diferentes modelos de recompensa do ambiente Lunar Lander. 2021. 37 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Departamento de Computação, Universidade Federal Rural de Pernambuco, Recife, 2021. | pt_BR |
dc.identifier.uri | https://repository.ufrpe.br/handle/123456789/4006 | - |
dc.description | As técnicas estudadas relacionadas à aprendizagem por reforço estão se tornando cada vez mais comuns em desafios do mundo real, porém um desafio é reduzir o tempo de aprendizado. Atualmente o tempo de aprendizado e/ou quantidade de interações realizadas pelo agente de aprendizagem por reforço podem resultar em altos custos nas aplicações, pois o treinamento dos modelos podem consumir bastante tempo, exigindo muitas interações do agente com o ambiente da tarefa. Este trabalho busca melhorar o aprendizado utilizando uma nova combinação de técnicas, a técnica Teacher-Student (Aluno-Professor) com a Reward Shaping (modelagem de recompensas). A técnica Teacher-Student visa escolher dentre um conjunto de tarefas similares que treinam para uma tarefa principal, de acordo com o aprendizado do aluno. A técnica Reward Shaping, altera a recompensa para tentar acelerar o aprendizado, fornece feedbacks mais frequentes sobre os comportamentos apropriados, ou seja, reporta recompensas com mais frequência. Adaptamos algoritmos de Teacher-Student para essa combinação de técnicas, e usamos o ambiente Lunar Lander como estudo de caso, usando quatro modelos de recompensa elaborados em (ALBUQUERQUE, 2021) para este ambiente. Foram realizados experimentos executando diferentes treinamentos para comparar essa abordagem com o treinamento apenas no Lunar Lander original (sem alteração das recompensas), e com os resultados obtidos em (ALBUQUERQUE, 2021) ao adotar cada um dos modelos de recompensas individualmente. A combinação das técnicas Teacher-Student com Reward Shaping contribuíram para uma nova experiência na área de aprendizagem por reforço, conseguindo acelerar o aprendizado do agente, considerando a duração de 600 mil passos de treinamento, atingindo o desempenho alvo em 2 de 5 propostas, além de conseguir aprender melhor que a abordagem original do Lunar Lander com algoritmo PPO. | pt_BR |
dc.description.abstract | The techniques studied related to learning by reinforcement are becoming more and more common in real world challenges, but one challenge is to reduce the learning time. Currently, the learning time and/or amount of interactions performed by the reinforcement learning agent can result in high costs in applications, as the training of models can consume a lot of time, requiring many interactions between the agent and the task environment. This work seeks to improve learning using a new combination of techniques, the Teacher-Student technique with Reward Shaping. The Teacher-Student technique aims to choose among a set of similar tasks that train for a main task, according to the student’s learning. The Reward Shaping technique, altering the reward to try to accelerate learning, provides more frequent feedback on appropriate behaviors, that is, reports rewards more often. We adapted Teacher-Student algorithms for this combination of techniques, and used the Lunar Lander environment as a case study, using four reward models designed in (ALBUQUERQUE, 2021) for this environment. Experiments were performed running different trainings to compare this approach with training only on the original Lunar Lander (no rewards change), and with the results obtained in (ALBUQUERQUE, 2021) by adopting each of the rewards models individually. The combination of Teacher-Student techniques with Reward Shaping contributed to a new experience in the reinforcement learning area, managing to accelerate the agent’s learning, considering the duration of 600 thousand training steps, reaching the target performance in 2 out of 5 proposals, in addition to of being able to learn better than the original Lunar Lander approach with PPO algorithm. | pt_BR |
dc.format.extent | 37 f. | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | Atribuição-CompartilhaIgual 4.0 Internacional (CC BY-SA 4.0) | pt_BR |
dc.rights | https://creativecommons.org/licenses/by-sa/4.0/deed.pt_BR | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | openAccess | pt_BR |
dc.subject | Aprendizado do computador | pt_BR |
dc.subject | Algoritmos computacionais | pt_BR |
dc.subject | Markov, Processos de | pt_BR |
dc.title | Teacher-Student aplicado a diferentes modelos de recompensa do ambiente Lunar Lander | pt_BR |
dc.type | bachelorThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/7479192156880225 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/8865836949700771 | pt_BR |
dc.degree.level | Graduacao | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.local | Recife | pt_BR |
dc.degree.grantor | Universidade Federal Rural de Pernambuco | pt_BR |
dc.degree.graduation | Bacharelado em Ciência da Computação | pt_BR |
dc.degree.departament | Departamento de Computação | pt_BR |
Aparece nas coleções: | TCC - Bacharelado em Ciência da Computação (Sede) |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
tcc_kenedyfelipedossantosdasilva.pdf | 1,67 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.