Published a Post on LG AI Research Blog Introducing AAMAS 2024 Papers LG AI Research 블로그에 AAMAS 2024 논문 소개 포스트를 올렸습니다
In June 2024, I contributed a blog post to LG AI Research introducing papers presented at AAMAS 2024 (Part 2; Part 1 was written by researcher Deunsol Yoon).
What made this post personally meaningful was that the research originated from a real industrial problem — NCC scheduling optimization — and made it all the way to a published academic paper with a new algorithm.
Agent-Oriented Centralized Critic (AOCC) tackles asynchronous MARL. In many real-world problems, each agent’s actions vary in duration and timing. The key challenge is how the centralized Critic should effectively encode each agent’s history. Existing methods suffered from duplicating the last observation rather than using a truly recent one. AOCC improves on this by independently encoding each agent’s history and then aggregating them.
The post also covers two other papers from AAMAS 2024: Offline MARL (training agents from data alone, without a simulator) and Offline-to-Online RL (rapidly fine-tuning a pre-trained agent in an online environment).
2024년 6월, LG AI Research 블로그에 AAMAS 2024 발표 논문들을 소개하는 글을 기고했습니다 (Part 2, Part 1은 Deunsol Yoon 연구원이 작성).
이 포스트에서 개인적으로 의미가 컸던 부분은, 회사에서 실제 산업 문제(NCC 스케줄링 최적화)를 다루던 프로젝트에서 출발한 연구가 학술 논문으로 정리되고, 관련 알고리즘까지 개발해 AAMAS 워크샵에 게재됐다는 점입니다.
Agent-Oriented Centralized Critic (AOCC)는 비동기 MARL 문제를 다룹니다. 현실의 많은 문제에서는 각 에이전트의 행동 길이와 타이밍이 제각각인데, 이때 중앙 Critic이 각 에이전트의 히스토리를 어떻게 효과적으로 인코딩하느냐가 핵심입니다. 기존 방법은 최신 관측이 아닌 마지막 관측을 중복 입력하는 문제가 있었고, AOCC는 에이전트별 히스토리를 독립적으로 인코딩한 뒤 집계하는 구조로 이를 개선했습니다.
포스트에는 이 외에도 AAMAS 2024에 발표된 두 편의 논문—시뮬레이터 없이 데이터만으로 에이전트를 학습하는 Offline MARL과, 사전 학습된 에이전트를 온라인 환경에서 빠르게 파인튜닝하는 Offline-to-Online RL—을 함께 소개했습니다.
전문은 아래 LG AI Research 블로그에서 확인하실 수 있습니다.
Enjoy Reading This Article?
Here are some more articles you might like to read next: