Author: 이승현 Date: February 1, 2019 Inverse RL 2번째 논문 Author : Pieter Abbeel, Andrew Y. Ng Paper Link : http://people.eecs.berkeley.edu/~russell/classes/cs294/s11/readings/Abbeel+Ng:2004.pdf Proceeding : International Conference on Machine Learning (ICML) 2004 0. Abstract reward가 주어지지 않은 Markov decision process 문제에서, 특히나 reward를 어떻게 줄지 하나하나 고려하는것이 힘들 때 전문가의 시연을 보고 학습하는것은 상당히 효과적인 접근입니다. 이러한 관점에서 ..
Author: 이동민 Date: January 28, 2019 Inverse RL 1번째 논문 Author : Andrew Y. Ng, Stuart Russell Paper Link : http://ai.stanford.edu/~ang/papers/icml00-irl.pdf Proceeding : International Conference on Machine Learning (ICML) 2000 0. Abstract 이 논문은 Markov Decision Processes에서의 Inverse Reinforcement Learning(IRL)을 다룹니다. 여기서 IRL이란, observed, optimal behavior이 주어질 때 reward function을 찾는 것입니다. IRL은 두 가지 장점이..
Author: 이동민, 이승현 Date: January 22, 2019 0. Inverse RL의 세계로 반갑습니다! 저희는 Inverse RL을 흐름을 살펴보기 위해 모인 IRL 프로젝트 팀입니다. 강화학습에서 reward라는 요소는 굉장히 중요합니다. 왜냐하면 agent라는 아이가 유일하게 학습할 수 있는 요소이기 때문입니다. 일반적으로 강화학습에서는 사람이 reward를 일일히 정해주지만, 실제로 그 reward에 따라 "desirable" action이 나오지 않을 수도 있습니다. 여기서 생각해볼 수 있는 것이 바로 "expert"의 행동을 통해 reward를 찾는 것입니다. 저희는 Andrew Ng의 논문인 Linear IRL과 Pieter Abbeel의 논문인 APP를 필두로 하여 MMP, M..