이 레슨과 관련된 학습 키워드
컴퓨터 과학 & 프로그래밍 — 문제 해결의 도구 → ROS 프로그래밍 — 로봇 소프트웨어의 표준 → ROS2 기초부터 배포까지 → 실전과 배포
로봇이 실제 환경에서 자율적으로 행동하려면 딥러닝 인퍼런스가 반드시 필요해요.
전통적인 규칙 기반 인식은 조명이나 시점이 바뀌면 바로 성능이 떨어져요.
그림 왼쪽을 보세요, 카메라 센서에서 640곱하기480 이미지가 30프레임으로 들어와요.
이 이미지가 전처리 노드를 거쳐 416곱하기416으로 리사이즈되고 정규화돼요.
가운데 빨간 박스를 보면, 욜로v8n 인퍼런스 노드가 텐서알티 FP16으로 동작해요.
제이슨 오린에서 8밀리초 만에 추론이 끝나는 거예요.
오른쪽으로 가면 검출 결과가 Detection2DArray 메시지로 변환돼요.
바운딩 박스 좌표, 클래스 아이디, 신뢰도 점수가 함께 전달되죠.
맨 오른쪽 보라색 박스가 경로 계획 노드예요, Nav2 플래너가 장애물을 회피해요.
cmd_vel 토픽으로 20헤르츠 주기로 제어 명령을 내보내요.
아래쪽 비교를 보면, 규칙 기반은 HOG더하기SVM으로 최대 20클래스밖에 못 잡아요.
mAP가 45퍼센트 수준이라 실전에서는 부족해요.
반면 딥러닝 기반은 80개 이상 클래스를 72퍼센트 이상 정확도로 검출해요.
새 환경에서도 전이학습으로 빠르게 적응할 수 있다는 게 큰 장점이에요.
하단 파란 박스를 보세요, 실시간 요구사항이 정리되어 있어요.
카메라 30fps 입력이면 추론은 33밀리초 이내에 끝나야 해요.
제어 주기가 20헤르츠이니까 50밀리초마다 새 명령이 필요하죠.
제이슨 오린은 GPU 8기가바이트 VRAM에 쿠다 11.4를 지원해요.
텐서알티 FP16 최적화를 쓰면 욜로v8n이 8밀리초에 동작해요.
ROS2의 DDS 통신은 마이크로초 단위 지연으로 노드 간 데이터를 전달해요.
QoS 설정으로 센서 데이터 손실 없이 안정적으로 전달할 수 있어요.
라이프사이클 노드를 쓰면 GPU 초기화와 해제를 체계적으로 관리할 수 있죠.
선생님: 로봇이 물체를 보고 피하려면 어떤 과정이 필요할까요?
학생: 카메라로 물체를 인식하고, 그 정보를 기반으로 경로를 바꿔야 하지 않나요?
선생님: 맞아요, 그런데 규칙 기반 인식은 왜 실전에서 부족할까요?
학생: 조명이나 각도가 바뀌면 미리 정한 규칙이 안 맞을 것 같아요.
선생님: 정확해요, 그래서 딥러닝이 필요한 거예요. 그럼 실시간 처리가 왜 중요할까요?
학생: 추론이 느리면 로봇이 장애물에 부딪히니까 33밀리초 안에 끝내야 하는 거죠?
선생님: 그래서 텐서알티 같은 최적화와 ROS2의 실시간 통신이 함께 필요한 거예요.