
'항공교통물류학부'에서 해외 물류 및 A I 관련하여 온라인 세미나를 진행하오니 관심있는 학생들은 참여 바랍니다.
■ 일시 : 2022.10.25.(화) 10:00 ~ 13:00
■ 관련사이트 : https://www.jobon.co.kr/hk-onlinefieldtrip
■ 계획서 및 포스터 : 첨부파일 참조
현대자동차의 42Dot에서 자율주행 인공지능 세미나를 진행합니다. 관심있는 학생들의 많은 참여바랍니다.
42Dot은 현대자동차가 최근 인수한 자율주행 SW기업으로, 현대기아의 전기차 자율주행 SW를 이끌어 나갈 것으로 기대를 받고 있는 기업입니다.특히 기존 라이다 기반의 자율주행이 아니라, 테슬라와 같이 카메라 기반의 자율주행 기술 및 모빌리티 서비스를 추구하고 있습니다.
▶ 세미나 일시: 11월 16일(수요일) 오후 4시
▶ 장소: 박물관 2층 KAU 비전홀
▶ 연사: 정성균 박사(Head of autonomous driving)
이유철 교수의 Robotics and AI Navigation (RAIN) 실험실에서는 한국전자통신연구원(ETRI)과 미국 스토니브룩대학교(Stony Brook University)와 협업을 통하여 강화학습과 트랜스포머 모델을 이용한 종단간 모방학습 기반의 자율주행 기술에 대한 연구를 진행하였습니다.
그 결과 교신저자로 참여한 "StARformer: Transformer with State-Action-Reward Representations for Robot Learning" 논문은 인공지능분야 최고 권위 학술지인 IEEE Transactions on Pattern Analysis and Machine Intelligence(T-PAMI)(JCR 0.54%, Impact Factor 24.314)에 게재 승인을 받았으며, 12월에 출간 예정입니다.
Reinforcement Learning (RL) can be considered as a sequence modeling task, where an agent employs a sequence of past state-action-reward experiences to predict a sequence of future actions. In this work, we propose St ate- A ction- R eward Transformer ( StAR former), a Transformer architecture for robot learning with image inputs, which explicitly models short-term state-action-reward representations (StAR-representations), essentially introducing a Markovian-like inductive bias to improve long-term modeling. StARformer first extracts StAR-representations using self-attending patches of image states, action, and reward tokens within a short temporal window. These StAR-representations are combined with pure image state representations, extracted as convolutional features, to perform self-attention over the whole sequence. Our experimental results show that StARformer outperforms the state-of-the-art Transformer-based method on image-based Atari and DeepMind Control Suite benchmarks, under both offline-RL and imitation learning settings. We find that models can benefit from our combination of patch-wise and convolutional image embeddings. StARformer is also more compliant with longer sequences of inputs than the baseline method. Finally, we demonstrate how StARformer can be successfully applied to a real-world robot imitation learning setting via a human-following task.
논문 링크: https://doi.org/10.1109/TPAMI.2022.3204708