학부 강의 노트/기상 인공지능 특론 21

퍼셉트론 - 오차 역전파

예측을 위한 순전파 신경망은 순전파 해서 결과를 예측한다. 결과 레이어에 도달하기까지 모든 레이어에서의 연산이 포함된다. 오차 역전파 (back propagation) 가중치와 바이어스를 실제로 구할 때, 신경망 내부의 가중치 수정하는 방법(딥러닝에서 가장 중요한 부분 중 하나) 경사 하강법의 확장 개념 단일 퍼셉트론에서의 오차 역전파 1. 임의의 초기 가중치를 사용하여 처음 결과값(y)을 구함. 2. 그 결과값과 참값(예상 또는 기대하는 값) 사이의 평균 제곱 오차(ε)를 구함. 3. 이 오차를 최소로 만드는 지점으로 조금씩 거슬로 이동하면서 미분... 경사 하강법 4. 미분의 기울기가 0인(0으로 수렴되는) 지점이 최적화된(수정된) 최종 가중치. 최적화의 방향은 출력층에서 시작해서 입력층... 따라서..

퍼셉트론 - XOR 문제 해결(다층 퍼셉트론, 신경망)

XOR 문제 해결 아래 그림과 같이 2차원 평면 공간을 3차원으로 확장해서 분류할 수 있음. 즉, 좌표 평면 변화를 적용. XOR 문제를 해결하기 위해서는 2개의 퍼셉트론을 한번에 계산할 수 있어야 하는데, 은닉층(hidden layer)를 사용하면 가능함. 다층 퍼셉트론 1. 각 퍼셉트론의 가중치(w)와 바이어스(b)를 은닉층의 노드(n)로 보냄. 2. 은닉층으로 들어온 w, b에 시그모이드 함수를 적용하여 최종 결과값을 출력함 w와 b를 구하기 위해서 행렬로 표현하면, 연습: XOR 문제 해결 아래 예제를 통해서, XOR 진리표를 구할 수 있는지 연습해 보자. 먼저 각 노드 n1, n2를 구하고, 최종 y 출력값을 계산한다.

퍼셉트론 - XOR (exclusive OR) 문제

진리표 컴퓨터 디지털 회로 gate 논리 AND: 둘다 1 이면 1 OR: 둘 중 하나라도 1 이면 1 XOR: 둘 중 하나만 1이면 1 분류기 퍼셉트론 XOR (exclusive OR) 문제 그림처럼, 각각 두 개씩 다른 점이 있다고 할 때, 하나의 선을 그어 색깔별로 분류하는 방법을 생각해 보자. 어떠한 한 개의 직선으로도 분류할 수 없다.... 1969년 Marvin Minsky 가 발견 XOR 문제 해결 1990년대 다층 퍼셉트론(multilayer perceptron)으로 해결 아래 그림과 같이 2차원 평면 공간을 3차원으로 확장해서 분류할 수 있음. 즉, 차원 확장과 좌표 평면 변환 이용 XOR 문제를 해결하기 위해서는 2개의 퍼셉트론을 한번에 계산할 수 있어야 함. 은닉층(hidden lay..

퍼셉트론(perceptron)

다변량 함수 알고리즘 입력값(x)을 통해 출력값(y)을 구하는 다변량 회귀식은 아래와 같이 표현할 수 있음. 출력값(y)을 알려면, a1, a2, b 값을 알아야함. 입력된 x1, x2는 각각 가중치 a1, a2와 곱해지고, b가 더해진 후 로지스틱 회귀함수인 시그모이드 함수를 거쳐 1 또는 0값이 출력됨.... 퍼셉트론(perceptron) 개념 퍼셉트론 (perceptron) 1957년 프랑크 로젠블라트에 의해 고안됨. 이후 인공 신경망, 오차 역전파 등의 연구개발을 거쳐 딥러닝으로 발전됨. 인간 뇌의 뉴런의 신호 전달과 메커니즘이 유사. 뉴런과 뉴런 사이의 시냅스 연결부위가 자극(입력값) 받으면, 시냅스에서 화학물질이 나와 전위 변화를 일으킴. 전위가 임계치를 넘으면 다음 뉴런으로 신호를 전달(출력..

딥러닝 수학 통계 - 로지스틱 회귀

로지스틱 회귀 (logistic regression) 참(1), 거짓(0)을 구분하는 분류 모델 로지스틱 회귀 모델을 만들어 YES or NO의 값을 출력하는 것이 딥러닝의 원리 시그모이드 함수 (sigmoid function) 이 함수를 이용해서 구해야 할 값은 ax+b (선형회귀식). 결과값(y)은 0과 1사이 a(그래프의 경사도): a가 커지면 경사가 커지고, a가 작아지면 경사가 작아진다. b(그래프의 좌우 변위): b가 크면 왼쪽, b가 작으면 오른쪽으로 그래프가 이동함 오차 공식 시그모이드 함수를 오차를 나타내는 함수로 생각하면, a, b에 따라서 오차가 변한다. a가 작아지면 오차는 무한대로 커지나, a가 커지면 오차는 0에 수렴한다. b는 너무 크거나 작을 경우, 오차가 증가한다. 시그모이..

딥러닝 수학 통계 - 다중 선형 회귀

다중 선형 회귀 기온에 영향을 미치는 요소가 시간(x1)뿐 아니라 풍속(x2)도 있을 수 있다. 이 경우 하나의 종속 변수(y)에 2개의 독립변수(x1, x2)가 영향을 미치므로, 아래와 같은 식으로 표현 가능. y = a1x1 + a1x2 + b 시간(x1) 기온(y) 풍속(x2) 0 16 3 14 6 17 9 19 12 22 15 26 18 23 21 19 평균 19.5 경사 하강법을 사용하여 두 기울기 a1, a2 구함.

딥러닝 수학 통계 - 경사 하강법

경사하강법 (gradient descent) - 2차원 이상의 함수에서 최저점(기울기, 절편)을 찾는 방법 - 오차의 변화의 2차 함수 그래프를 만들고 적절한 학습률을 설정해 기울기가 0인 지점을 구하는 것. 방법적 알고리즘 (2차 함수) 1. X1에서 미분으로 기울기 구함 2. 구해진 기우기의 반대방향으로 얼마간 이동시킨 X2에서 미분 (기울기가 +이면 음의 방향, 기울기가 -이면 양의 방향으로 이동시킴) 3. 미분 값이 0이 될때 까지 위 과정을 반복해서 최소값을 구함. 학습률 (learning rate) - 학습율을 너무 크게 설정하면, 기울기의 부호를 바꿔 이동할 때 적절한 거리는 찾지 못해 너무 멀리 이동하면, 기울기(a)가 수렴하지 않고 발산할 수 있음. -> overshooting 학습율을 ..

딥러닝 수학 통계 - 선형회귀

선형 회귀법 - 독립 변수 x를 사용해 종속 변수 y의 움직임을 설명하고 예측하는 작업 - 가장 적절한 예측선을 그려내는 과정. 즉, 최적의 기울기(a), 절편(b) 찾는 과정 - 모든 점들로부터의 오차가 최소인 지점에 가장 적절한 예측선을 그림 기울기와 절편 찾는 방법 최소 제곱법 - 1차함수용 독립변수 x가 1개일때 사용 경사 하강법 - 다차함수용 독립변수 x가 2개 이상인 경우 최소 제곱법 (method of least squares) 기울기 = {(x- x평균)(y-y평균)의 합}/{(x-x평균)^2의 합} 시간 기온 예측값 0 16 3 14 6 17 9 19 12 22 15 26 18 23 21 19 평균 19.5 평균 제곱 오차 (mean square error, MSE) 오차의 합 = {(y..

딥러닝 수학 통계 - 선형과 비선형성

자연을 이해하기 위한 과학적 접근법 1) 선형화 2) 정량화 선형 함수 선형함수: 1차함수로 표현되는 변량간의 관계 자연세계는 기본적으로 비선형 세계 인간의 인지 능력은 선형적, 즉 1차원적, 직관적 복잡한 비선형계의 데이터는 선형화가 필요... 1차선형회귀 이 경우, 오차가 발생하므로, 통계학의 확률분포 해석이 필요 비선형 함수 만약 설명력을 높이기 위해서는 다차 회귀함수가 필요 비선형의 불확실성 비선형 함수에서는 1개 결과값 Y의 원인자는 차수에 따라 그 수가 늘어남. 즉, 알고 있는 관측/관찰 결과의 원인은 차원에 따라 명확히 알 수가 없다. AI 불확실성과 한계 절대 인간이 될 수 없는 AI AI 인간과 공존하는 지식

딥러닝 수학 통계 - 함수와 미분

딥러닝을 이해하는데 가장 중요한 수학원리는 "미분" 1차 함수의 기울기와 절편 기울기와 절편 2차함수의 최소값 미분=순간 변화율 미분으로 함수의 최소값을 구함. 어느 순간에 어떤 변화가 일어나고 있는지를 숫자로 나타낸 것을 "미분 계수" = 그래프의 기울기 기울기가 0인 지점이 최소값 지점. 딥러닝에서는 최소값을 찾아내는 과정이 매우 중요. 1차함수의 경우, 수학적으로는 최소 제곱법으로 간단히 찾을 수 있음. 딥러닝이 필요한 다차함수의 경우, 미분과 기울기를 이용하는 경사 하강법을 사용. 연속함수와 이산함수 미분과 차분 아날로그와 디지털

1 2 3