이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → 머신러닝 — 데이터에서 지식을 추출하다 → 지도학습 기초 — 데이터에서 패턴 배우기 → 선형 모델
선형 회귀가 잔차 제곱합을 최소화하여 데이터에 직선을 맞추는 방법을 학습합니다.
선형 회귀는 머신러닝에서 가장 기본이 되는 지도 학습 알고리즘입니다.
핵심 아이디어는 간단합니다, 데이터를 가장 잘 설명하는 직선 하나를 찾는 거예요.
수식으로 쓰면 와이 햇 이퀄 더블유 엑스 플러스 비, 이게 전부입니다.
왼쪽 산점도를 보세요, 빨간 점들이 실제 데이터입니다.
파란 직선이 우리 모델의 예측이에요.
각 점에서 직선까지 수직 거리가 바로 잔차, 레지듀얼이라고 합니다.
주황 점선이 잔차를 나타내고 있죠.
오른쪽 상단 박스를 보시면 핵심 파라미터가 두 개입니다.
더블유는 기울기로, 엑스가 1 증가할 때 와이가 얼마나 변하는지를 의미합니다.
비는 와이 절편으로, 엑스가 0일 때의 기본값이에요.
예를 들어 공부 시간이 0이면 기본 점수가 42점인 셈입니다.
그럼 목표는 무엇일까요? 오른쪽 하단 초록 박스를 보세요.
모든 잔차의 제곱합을 최소화하는 게 학습의 핵심입니다.
이걸 엠에스이, 평균 제곱 오차라고 부릅니다.
엠에스이를 최소화하는 방법은 크게 두 가지예요.
정규 방정식으로 한 번에 풀거나, 경사하강법으로 반복적으로 접근합니다.
이 두 방법은 이어지는 블록에서 자세히 배워볼게요.
선형 리그레션은 단순하지만 통계학과 딥러닝의 출발점입니다.
이번 레슨에서 직선 하나가 어떻게 예측을 만드는지 완전히 이해해 봅시다.
자, 다음으로 최소제곱법의 원리를 살펴보겠습니다.
학생: 선생님, 왜 잔차를 그냥 더하지 않고 제곱해서 더하나요?
선생님: 좋은 질문이에요. 잔차는 양수와 음수가 섞여 있어서 그냥 합하면 서로 상쇄돼요.
선생님: 예를 들어 플러스 3과 마이너스 3이 만나면 합이 0이 되죠. 오차가 분명 있는데 말이에요.
학생: 그러면 절대값을 쓸 수도 있지 않나요?
선생님: 맞아요, 절대값 합이 바로 엠에이이인데요, 제곱은 미분이 쉽다는 큰 장점이 있어요.
선생님: 그래서 수학적으로 최적해를 깔끔하게 구할 수 있답니다. 이건 정규 방정식에서 다시 볼게요.