Published a Post on LG AI Research Blog Introducing ICLR 2022 Paper LG AI Research 블로그에 ICLR 2022 논문 소개 포스트를 올렸습니다
Shortly after joining LG AI Research in March 2022, I wrote a blog post introducing research I had done during my master’s program.
The core idea is straightforward: to control robots with diverse body structures — humanoid, animal-like, and others — using a single shared policy network, the model needs to properly understand each robot’s morphology. Prior GNN-based methods suffered from over-smoothing, while Transformer-based methods ignored graph connectivity.
To address both issues, we proposed SWAT (Structure-aWAre Transformer). It augments the Transformer’s self-attention with structural embeddings encoding node positions (positional embedding) and inter-node relationships (relational embedding), enabling a single general-purpose policy that effectively captures morphological structure.
The full post is available on the LG AI Research blog.
2022년 3월 LG AI Research에 합류하고 얼마 지나지 않아, 석사 과정에서 진행했던 연구를 소개하는 글을 회사 블로그에 기고했습니다.
논문의 핵심 아이디어는 간단합니다. 여러 형태의 로봇(인간형, 동물형 등)을 하나의 정책 네트워크로 동시에 제어하려면, 각 로봇의 구조적 형태 정보(morphology)를 모델이 제대로 이해해야 한다는 것입니다. 기존 GNN 기반 방법은 over-smoothing 문제가 있었고, Transformer 기반 방법은 그래프 연결 구조를 무시했습니다.
이를 해결하기 위해 SWAT(Structure-aWAre Transformer)을 제안했습니다. Transformer의 self-attention에 노드의 위치(positional embedding)와 노드 간 관계(relational embedding)를 담은 structural embedding을 추가해, 형태 정보를 효과적으로 반영한 단일 범용 정책을 학습합니다.
전문은 아래 LG AI Research 블로그에서 확인하실 수 있습니다.
Enjoy Reading This Article?
Here are some more articles you might like to read next: