이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → AI 로보틱스 & Embodied AI — 몸을 가진 지능 → AI 로보틱스 & Embodied AI — 물리 세계의 지능 → 기초
ROS 2에서 TF2 좌표 프레임, 변환 발행/조회, 카메라→월드 좌표 변환 파이프라인을 학습합니다.
로봇에는 카메라, 라이다, 아이엠유 등 여러 센서가 달려 있습니다.
문제는 각 센서가 자기만의 좌표 기준을 가진다는 것입니다.
화면을 보시면, 가운데 파란색 박스가 로봇 본체인 베이스 링크입니다.
카메라가 물체를 엑스 1.2, 와이 0.3 위치에서 감지했다고 합시다.
그런데 이 좌표는 카메라 기준이지, 로봇 기준이 아닙니다.
왼쪽 위 빨간 박스를 보세요, 카메라 링크는 자신만의 좌표축을 가집니다.
카메라는 제트 포워드 규칙을 쓰는데, 로봇은 엑스 포워드입니다.
오른쪽 위 초록 박스의 라이다도 마찬가지입니다.
라이다는 알 2.5, 세타 45도라는 극좌표로 장애물을 알려줍니다.
이걸 로봇 좌표로 바꾸려면 변환 행렬이 필요합니다.
왼쪽 아래 보라색 아이엠유는 기울기를 측정하는데, 이누 규칙을 따릅니다.
오른쪽 아래 시안색 지피에스는 위도 경도라는 전혀 다른 체계를 씁니다.
가운데 하단 강조 박스를 보면, 핵심 문제가 적혀 있습니다.
기준이 다 다르니, 센서 데이터를 합칠 수가 없는 것입니다.
이때 티에프투가 등장합니다.
티에프투는 점선 화살표처럼, 센서와 본체 사이의 변환을 관리합니다.
변환 행렬 하나면 카메라 좌표를 로봇 좌표로 바꿀 수 있습니다.
이것이 바로 좌표 트랜스폼, 로봇이 공간을 이해하는 핵심 메커니즘입니다.
이번 레슨에서는 티에프투의 구조와 실전 사용법을 깊이 배워보겠습니다.
먼저 좌표 프레임의 기본 개념부터 시작합시다.
선생님: 자, 로봇에 카메라와 라이다가 있는데, 카메라가 물체를 1.2미터 앞에서 감지했어요. 그런데 라이다는 같은 물체를 다른 숫자로 보고합니다. 왜 그럴까요?
학생: 카메라와 라이다가 로봇의 다른 위치에 달려있으니까, 같은 물체라도 각 센서 기준으로 측정하면 좌표값이 달라지는 거 아닌가요?
선생님: 정확해요! 그래서 두 센서의 측정값을 합치려면 뭐가 필요할까요?
학생: 각 센서와 로봇 본체 사이의 위치 관계, 그러니까 좌표 변환 정보가 있어야 하나의 기준으로 통합할 수 있을 것 같습니다.
선생님: 맞아요, 그게 바로 티에프투가 하는 일입니다. 모든 센서 좌표를 베이스 링크 기준으로 자동 변환해주는 시스템이에요.