목록인공지능 (45)
juuuding

cost function은 특정 파라미터 집합(w,b)이 훈련 데이터에 얼마나 잘 맞는지 측정하는 방법을 제공한다. linear regression의 cost function이었던 squared error cost function은 logistic에 이상적인 cost function이 아니다. 따라서 이번 챕터에서는 logistic regression에 맞는 cost function에 대해 알아볼 것이다. 우선 아래는 linear regression에 잘 맞는 squared error cost이다. loss와 cost의 관계를 조금 더 명료하게 하기 위해 1/2m에서 1/2를 sigma 안으로 넘겨보면, cost는 training set들의 loss 평균이라고 말할 수 있다. 이것을 linear regr..

출력 변수 y가 숫자 범위에 있는 값 대신 가능한 몇가지 값 중 하나만 가질 수 있는 "Classification"에 대해 알아볼 것이다. 결론부터 말하면 linear regression은 classification 문제에 적합한 알고리즘이 아니며, classification에는 "logistic regression"을 이용한다. Classification 출력 값 y가 오직 두 값 중 하나만 될 수 있을 때 이것을 "binary classification"이라고 한다. 이 binary classification은 0 or 1의 결과 값을 가진다고 표현될 수 있으며, 0은 false(negative), 1은 true(positive)의 의미를 나타낸다. 여기서 negative, positive는 나쁘고 ..

Feature Scaling 경사 하강이 빠르게 실행될 수 있도록 하는 "feature scaling"에 대해서 알아볼 것이다. [Feature and parameter values] 집 값을 정하는 feature가 집의 크기와 방의 수라고 가정하면 집 값을 결정하는 모델의 식은 다음과 같다. 여기서 x1은 집의 크기이며 x1의 범위는 300-2000이고, x2는 방의 수이며 x2의 범위는 0-5이다. 이와 같이 feature들의 범위가 크게 차이가 나면 parameter w의 값을 조절해주는 것이 좋다. feature의 값이 큰 곳에 큰 w 값을 넣고 작은 곳에 작은 w을 넣어줘야 할지, 값이 큰 곳에는 작은 w을 넣고 작은 곳에 큰 w을 넣어야 할지에 대해 나눠서 비교해보자. House: x1=200..

Multiple Features 이전 내용에서는 변수(특징)이 하나인 경우를 다뤘다. 예를 들어 집 값을 결정하는 요소가 집의 크기 하나 뿐이였다는 것이다. 이것과 달리 이번 단원에서는 집 값을 결정하는 요소를 여러개로 설정해볼 것이다. 즉, "multiple features (vairables)"를 사용할 것이다. 위의 식에서 w와 x는 벡터이며 이를 상기시키기 위해 선택적으로 윗부분에 기호를 넣기도 한다. 우리는 이 식을 "dot product"를 사용하며 아래 식과 같이 표현할 수 있다. 이처럼 입력 특성이 여러 개 있는 모델을 "multiple linear regression (다중 선형 회귀)" 모델이라고 한다. 참고로 multivariate regression(다변량 회귀)라는 것이 있는데, ..

💡Machine Learning Overview - 기계 학습의 2가지 주요 유형: supervised / unsupervised (지도/비지도) Supervised Learning * Supervised learning: 모델이 올바른 입력, 출력 쌍을 가지고 학습한 후, 이 전에 본 적 없는 새로운 입력 x를 입력 받아 적절한 출력 값 y를 생성하는 것을 시도할 수 있다. 학습 알고리즘 예제를 제공한다. [Regression] - 무한히 많은 가능한 output들로 수를 예측한다. ex) Housing price prediction [Classification] - 적은 가능한 output들로 범주를 예측한다. ex) Breast cancer detection + classfication과 regre..