이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → 컴퓨터 비전(Computer Vision) — 기계에게 눈을 주다 → 딥러닝을 활용한 비전 — 검출에서 세그멘테이션까지 → 이미지 분류
모델 일반화를 향상시키고 과적합을 줄이기 위해 훈련 이미지에 랜덤 변환을 적용합니다.
여러분, 딥러닝 모델을 훈련할 때 가장 큰 고민이 무엇일까요?
바로 데이터가 부족하다는 겁니다.
데이터를 새로 수집하려면 시간과 비용이 엄청나게 들죠.
그림 왼쪽을 보세요.
원본 데이터가 고작 100장뿐이라면 어떤 일이 벌어질까요?
모델이 훈련 데이터를 달달 외워버리는 과적합이 발생합니다.
훈련 정확도는 99퍼센트인데, 검증 정확도는 55퍼센트밖에 안 되는 거죠.
이것이 바로 과적합의 전형적인 증상입니다.
가운데 상자를 보면, 데이터 증강이라는 해결책이 있습니다.
오그멘테이션은 기존 이미지를 회전하고, 뒤집고, 밝기를 바꿔서 새로운 변형을 만들어내는 거예요.
핵심은 라벨은 그대로 유지하면서 외형만 달라진다는 점입니다.
고양이 사진을 뒤집어도 여전히 고양이니까요.
오른쪽 결과를 보세요.
100장이 1000장으로 늘어나면서, 검증 정확도가 88퍼센트로 껑충 올라갑니다.
그리고 이 모든 것이 추가 비용 없이, 기존 데이터만으로 가능합니다.
아래 비교표를 한번 확인해보세요.
증강 전과 후의 차이가 한눈에 보입니다.
데이터 증강은 2012년 알렉스넷 때부터 사실상 필수 기법이 되었습니다.
지금부터 어떤 증강 기법들이 있는지, 하나하나 살펴보겠습니다.
이 레슨을 마치면 여러분도 자신의 프로젝트에 바로 적용할 수 있을 거예요.
선생님: 데이터 증강을 하면 왜 과적합이 줄어들까요? 단순히 데이터가 많아져서일까요?
학생: 음, 데이터가 많으면 모델이 외우기 어려우니까 일반화가 되는 거 아닌가요?
선생님: 맞는 말이에요. 하지만 더 본질적인 이유가 있어요.
선생님: 증강된 이미지들은 같은 객체를 다양한 조건에서 보여주기 때문에, 모델이 불변 특성을 학습하게 됩니다.
학생: 아, 뒤집힌 고양이도 고양이라는 걸 배우는 거군요! 그러면 새로운 각도의 고양이도 맞출 수 있겠네요.
선생님: 정확해요. 이걸 변환 불변성이라고 합니다. 면접에서도 자주 나오는 개념이에요.