이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → MLOps & 실전 배포 — 모델을 세상에 내보내기 → 모델 서빙 & 배포 — 연구실에서 서비스로 → 컨테이너화
Learn cloud deployment for ML: AWS SageMaker, GCP Vertex AI, Azure ML, Kubernetes, serverless, GPU optimization, A/B testing, canary deployment, feature stores, CI/CD, cost management, and security.
model.predict(x) 한 번 실행하면 끝오늘은 클라우드 엠엘 배포를 시작해볼게요.
연구실 모델이 왜 서비스로 못 가는 걸까요?
슬라이드 상단 제목을 보시면 흥미로운 통계가 나와요.
엠엘 모델의 87퍼센트가 프로덕션에 못 간다고 합니다.
생각보다 훨씬 충격적인 수치죠?
왜 이렇게 많이 실패하는 걸까요?
슬라이드 왼쪽 빨간 박스를 보세요.
이게 바로 로컬 환경, 연구실 노트북이에요.
첫 번째 문제는 단일 요청 처리입니다.
모델을 딱 한 번만 호출하는 구조예요.
실제 서비스엔 동시 요청이 수천 개 들어와요.
왼쪽 박스 중간을 보시면 단일 프로세스가 보여요.
모델이 메모리에 하나만 올라가 있어요.
동시 요청이 오면 바로 병목 현상이 생겨요.
세 번째는 환경 하드코딩 문제예요.
파이썬 버전, 쿠다 버전이 내 컴퓨터에 고정돼요.
경로도 로컬 절대 경로로 박혀 있죠.
다른 서버에 올리면 바로 에러가 납니다.
마지막은 모니터링이 전혀 없다는 점이에요.
메모리 누수가 나도 아무도 몰라요.
이 네 가지가 연구실과 프로덕션의 간극이에요.
클라우드는 이 간극을 어떻게 메울까요?
오른쪽을 보시면 클라우드 해결책이 나옵니다.
스케일링, 컨테이너, 자동 모니터링이 핵심이에요.
오늘 강의에서 이걸 하나씩 풀어볼 거예요.
선생님: 여기서 질문이 들어왔네요.
학생: 선생님, 환경 하드코딩이 왜 문제가 되는 건가요?
선생님: 좋은 질문이에요! 쉽게 말하면 이사 갈 때 벽에 붙은 가구를 상상해 보세요.
선생님: 내 집에선 완벽하지만 새 집엔 그대로 못 가져가잖아요.
선생님: 파이썬 3.9, 쿠다 11.8처럼 버전이 로컬에 고정돼 있으면요.
선생님: 클라우드 서버에 올리는 순간 버전 불일치로 에러가 바로 납니다.
선생님: 그래서 도커 같은 컨테이너로 환경 자체를 포장해서 옮기는 거예요.
선생님: 가구를 박스째 통째로 들고 이사하는 셈이죠!