코랩colab 2

07.03 CLASS SUMMARY (로지스틱 회귀)

로지스틱 회귀와 시그모이드 함수에 경사하강법 적용하기 1. 로지스틱 회귀(Logistic Regression) 로지스틱 회귀는 s자 형태의 곡선으로서, 학습된 분류선을 통해 입력값에 따라 0 또는 1로 분류하는 알고리즘이다. 2. 시그모이드 함수(Sigmoid Function) 시그모이드 함수는 0과 1 사이의 확률을 모두 표현할 수 있는 s자 모양의 그래프로, y = 1/(1+e^(-z)) 꼴로 z는 ax+b의 꼴이 들어간다. 선형 방정식의 a(기울기)는 시그모이드 그래프의 경사도를 의미하며, b(y절편)는 그래프의 좌우 이동을 의미한다. 0.5는 기본 임계값이다. *오차 공식: 오차들을 계산하는 함수를 손실 함수(loss function)라고 한다 로지스틱 회귀는 시그모이드 함수의 특징을 사용하여 로..

06.12 CLASS SUMMARY (편미분과 경사하강법)

편미분을 이용한 경사하강법으로 그래프 오차 줄이기 1. MSE의 그래프 개형 지난 시간 그렸던 평균제곱오차법을 그래프로 그렸다. 선형회귀에 의해 오차값은 점점 줄어들어 최솟값에 도달했다가 다시 증가하는 이차함수 포물선의 형태를 보였다. 즉 기울기의 변화에 따라 오차값이 달라짐을 알 수 있다. 그렇다면 미분을 이용해 기울기 및 절편의 변화량을 구할 수 있다. 2. 경사하강법(Gradient Descent) 미분 기울기를 이용하여 오차가 가장 작은 방향으로 기울기를 이동시키는, 즉 미분값(기울기)을 0인 값을 찾을 때까지 기울기 값을 변화시켜 최소의 에러값을 찾는 방법이다. 학습률 (Learning rate)은 기울기의 이동 거리로, 너무 크면 발산하지만 너무 작으면 수렴하지 못한다. (하이퍼파라미터) 3...