이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → AI 로보틱스 & Embodied AI — 몸을 가진 지능 → AI 로보틱스 & Embodied AI — 물리 세계의 지능 → 학습 기반 로보틱스
Learn classical navigation, SLAM, visual/semantic/object-goal navigation, obstacle avoidance, social navigation, exploration, and LLM-guided navigation.
여러분, 오늘 주제는 "왜 로봇 네비게이션이 어려운가"입니다.
화면 왼쪽을 보세요. 인간이 무의식으로 처리하는 다섯 가지 능력이 있어요.
시각 인식, 공간 추론, 의사결정, 사회적 규범, 기억과 학습입니다.
우리는 카페에 들어가면 자연스럽게 빈 자리를 찾고, 사람을 피해 걸어가죠.
이 모든 것이 뇌에서 동시에, 무의식적으로 일어납니다.
이제 오른쪽 로봇 영역을 보세요.
로봇은 이 모든 것을 센서 데이터에서 명시적으로 계산해야 합니다.
인지, 위치추정, 지도 구축이 첫 번째 줄에 있어요.
라이다는 초당 30만 포인트를 쏘고, 카메라는 초당 30프레임을 보내요.
이 데이터를 실시간으로 처리해서 "나는 어디에 있고, 주변에 뭐가 있나"를 알아내야 합니다.
두 번째 줄의 플래닝을 보세요.
글로벌 플래너가 에이스타, 알알티로 전체 경로를 잡고, 로컬 플래너인 디더블유에이가 실시간 장애물을 피합니다.
정적 장애물인 벽과 가구는 코스트맵으로 처리하고, 동적 장애물인 사람과 동물은 예측이 필요해요.
하단 타임라인을 보시면, 2004년 다르파 챌린지에서 15대 중 완주 차량이 제로였어요.
2005년 스탠리가 처음 240킬로미터를 완주했고, 이후 시뮬레이터 기반 연구가 폭발적으로 성장했습니다.
2016년 포인트골 네비게이션, 2020년 해비탯 2.0 소셜 네비게이션이 등장했어요.
2023년 브이엘에프엠, 2024년 나빌라가 비전-언어 모델과 네비게이션을 결합했습니다.
결론적으로, 인간의 무의식적 능력을 로봇에게 구현하는 것이 네비게이션 연구의 본질입니다.
센서 데이터에서 인지, 계획, 실행을 모두 실시간으로 해내야 하는 도전이죠.
다음 블록에서는 이 문제를 해결하기 위한 고전적 접근법부터 살펴보겠습니다.
선생님: 2004년 다르파 챌린지에서 왜 15대 모두 완주에 실패했을까요?
학생: 사막이라 GPS가 있어도 모래 지형 변화와 장애물 감지가 너무 어려웠을 것 같아요. 센서 처리 속도도 부족했고요.
선생님: 맞아요. 그런데 불과 1년 뒤 스탠리가 성공한 비결은 무엇이었을까요?
학생: 머신러닝으로 도로 표면을 학습하고, 라이다와 카메라를 융합해서 장애물 인식을 개선한 덕분이라고 들었어요.
선생님: 정확해요. 핵심은 단일 센서가 아니라 센서 융합과 학습 기반 인지의 조합이었죠. 이것이 현대 네비게이션의 출발점입니다.