이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → 딥러닝(Deep Learning) — 인공 신경망의 세계 → 신경망 기초 — 뉴런에서 학습까지 → 학습 기초
다양한 손실 함수와 각각을 언제 사용해야 하는지, 그리고 이들이 훈련에 미치는 영향을 탐구합니다.
손실 함수가 무엇인지부터 시작할게요.
모델 학습의 가장 핵심적인 개념이에요.
그림 왼쪽을 보세요, 초록 점이 정답이고 빨간 점이 예측이에요.
둘 사이의 주황 점선이 바로 오차예요.
손실 함수는 이 오차들을 숫자 하나로 요약하는 함수예요.
왜 숫자 하나여야 할까요?
경사 하강법은 기울기를 계산해서 내려가야 하거든요.
만약 손실이 벡터면, 어느 방향으로 내려가야 할지 모호해져요.
가운데 파이프라인을 보세요.
오차 벡터가 손실 함수를 거쳐 스칼라 하나로 변환돼요.
엘은 일엔 시그마 엘아이라는 공식으로 표현해요.
오른쪽 보라색 박스를 보시면 용어 구분이 있어요.
로스는 샘플 하나의 오차를 뜻해요.
코스트는 전체 데이터의 평균 손실이에요.
오브젝티브는 정규화 항까지 포함한 최종 목표예요.
실제 논문에서는 셋을 혼용하는 경우가 많아요.
하단을 보면 손실 함수를 네 가지로 분류했어요.
회귀용으로는 엠에스이, 엠에이이, 후버가 있어요.
분류용으로는 크로스 엔트로피와 포컬 로스가 대표적이에요.
거리 기반은 임베딩 학습에 쓰이는 컨트라스티브, 트리플렛이 있어요.
정규화 손실은 과적합을 막는 보조 손실이에요.
이번 레슨에서 이 네 범주를 모두 깊이 다뤄볼 거예요.
선생님: 손실 함수가 반드시 스칼라를 출력해야 하는 이유가 뭘까요?
학생: 경사 하강법이 하나의 값을 기준으로 미분해야 하니까요.
선생님: 맞아요, 벡터가 나오면 방향이 모호해져서 최적화가 안 돼요.
선생님: 그러면 로스와 코스트의 차이는 뭘까요?
학생: 로스는 샘플 하나, 코스트는 전체 평균이요.
선생님: 정확해요, 오브젝티브는 거기에 정규화까지 더한 거예요.