본문 바로가기
반응형

분류 전체보기591

퍼셉트론(perceptron) 다변량 함수 알고리즘 입력값(x)을 통해 출력값(y)을 구하는 다변량 회귀식은 아래와 같이 표현할 수 있음. 출력값(y)을 알려면, a1, a2, b 값을 알아야함. 입력된 x1, x2는 각각 가중치 a1, a2와 곱해지고, b가 더해진 후 로지스틱 회귀함수인 시그모이드 함수를 거쳐 1 또는 0값이 출력됨.... 퍼셉트론(perceptron) 개념 퍼셉트론 (perceptron) 1957년 프랑크 로젠블라트에 의해 고안됨. 이후 인공 신경망, 오차 역전파 등의 연구개발을 거쳐 딥러닝으로 발전됨. 인간 뇌의 뉴런의 신호 전달과 메커니즘이 유사. 뉴런과 뉴런 사이의 시냅스 연결부위가 자극(입력값) 받으면, 시냅스에서 화학물질이 나와 전위 변화를 일으킴. 전위가 임계치를 넘으면 다음 뉴런으로 신호를 전달(출력.. 2021. 11. 5.
딥러닝 수학 통계 - 로지스틱 회귀 로지스틱 회귀 (logistic regression) 참(1), 거짓(0)을 구분하는 분류 모델 로지스틱 회귀 모델을 만들어 YES or NO의 값을 출력하는 것이 딥러닝의 원리 시그모이드 함수 (sigmoid function) 이 함수를 이용해서 구해야 할 값은 ax+b (선형회귀식). 결과값(y)은 0과 1사이 a(그래프의 경사도): a가 커지면 경사가 커지고, a가 작아지면 경사가 작아진다. b(그래프의 좌우 변위): b가 크면 왼쪽, b가 작으면 오른쪽으로 그래프가 이동함 오차 공식 시그모이드 함수를 오차를 나타내는 함수로 생각하면, a, b에 따라서 오차가 변한다. a가 작아지면 오차는 무한대로 커지나, a가 커지면 오차는 0에 수렴한다. b는 너무 크거나 작을 경우, 오차가 증가한다. 시그모이.. 2021. 11. 4.
딥러닝 수학 통계 - 다중 선형 회귀 다중 선형 회귀 기온에 영향을 미치는 요소가 시간(x1)뿐 아니라 풍속(x2)도 있을 수 있다. 이 경우 하나의 종속 변수(y)에 2개의 독립변수(x1, x2)가 영향을 미치므로, 아래와 같은 식으로 표현 가능. y = a1x1 + a1x2 + b 시간(x1) 기온(y) 풍속(x2) 0 16 3 14 6 17 9 19 12 22 15 26 18 23 21 19 평균 19.5 경사 하강법을 사용하여 두 기울기 a1, a2 구함. 2021. 11. 4.
딥러닝 수학 통계 - 경사 하강법 경사하강법 (gradient descent) - 2차원 이상의 함수에서 최저점(기울기, 절편)을 찾는 방법 - 오차의 변화의 2차 함수 그래프를 만들고 적절한 학습률을 설정해 기울기가 0인 지점을 구하는 것. 방법적 알고리즘 (2차 함수) 1. X1에서 미분으로 기울기 구함 2. 구해진 기우기의 반대방향으로 얼마간 이동시킨 X2에서 미분 (기울기가 +이면 음의 방향, 기울기가 -이면 양의 방향으로 이동시킴) 3. 미분 값이 0이 될때 까지 위 과정을 반복해서 최소값을 구함. 학습률 (learning rate) - 학습율을 너무 크게 설정하면, 기울기의 부호를 바꿔 이동할 때 적절한 거리는 찾지 못해 너무 멀리 이동하면, 기울기(a)가 수렴하지 않고 발산할 수 있음. -> overshooting 학습율을 .. 2021. 11. 4.
딥러닝 수학 통계 - 선형회귀 선형 회귀법 - 독립 변수 x를 사용해 종속 변수 y의 움직임을 설명하고 예측하는 작업 - 가장 적절한 예측선을 그려내는 과정. 즉, 최적의 기울기(a), 절편(b) 찾는 과정 - 모든 점들로부터의 오차가 최소인 지점에 가장 적절한 예측선을 그림 기울기와 절편 찾는 방법 최소 제곱법 - 1차함수용 독립변수 x가 1개일때 사용 경사 하강법 - 다차함수용 독립변수 x가 2개 이상인 경우 최소 제곱법 (method of least squares) 기울기 = {(x- x평균)(y-y평균)의 합}/{(x-x평균)^2의 합} 시간 기온 예측값 0 16 3 14 6 17 9 19 12 22 15 26 18 23 21 19 평균 19.5 평균 제곱 오차 (mean square error, MSE) 오차의 합 = {(y.. 2021. 11. 4.
딥러닝 수학 통계 - 선형과 비선형성 자연을 이해하기 위한 과학적 접근법 1) 선형화 2) 정량화 선형 함수 선형함수: 1차함수로 표현되는 변량간의 관계 자연세계는 기본적으로 비선형 세계 인간의 인지 능력은 선형적, 즉 1차원적, 직관적 복잡한 비선형계의 데이터는 선형화가 필요... 1차선형회귀 이 경우, 오차가 발생하므로, 통계학의 확률분포 해석이 필요 비선형 함수 만약 설명력을 높이기 위해서는 다차 회귀함수가 필요 비선형의 불확실성 비선형 함수에서는 1개 결과값 Y의 원인자는 차수에 따라 그 수가 늘어남. 즉, 알고 있는 관측/관찰 결과의 원인은 차원에 따라 명확히 알 수가 없다. AI 불확실성과 한계 절대 인간이 될 수 없는 AI AI 인간과 공존하는 지식 2021. 11. 4.
딥러닝 수학 통계 - 함수와 미분 딥러닝을 이해하는데 가장 중요한 수학원리는 "미분" 1차 함수의 기울기와 절편 기울기와 절편 2차함수의 최소값 미분=순간 변화율 미분으로 함수의 최소값을 구함. 어느 순간에 어떤 변화가 일어나고 있는지를 숫자로 나타낸 것을 "미분 계수" = 그래프의 기울기 기울기가 0인 지점이 최소값 지점. 딥러닝에서는 최소값을 찾아내는 과정이 매우 중요. 1차함수의 경우, 수학적으로는 최소 제곱법으로 간단히 찾을 수 있음. 딥러닝이 필요한 다차함수의 경우, 미분과 기울기를 이용하는 경사 하강법을 사용. 연속함수와 이산함수 미분과 차분 아날로그와 디지털 2021. 11. 4.
연역법과 귀납법 진리탐구 방법 (연역법, 귀납법) 기적에 대한 차원적 접근 1차원 세계 1, 2차원 세계 1,2,3차원 세계 고차원 존재의 일상은 저차원 존재에게 기적 신 존재에 대한 추론 1. 외계인? 2. 자기 현현의 보편성 유물론 vs. 유신론 인간 인식 방법의 한계로 인해, 두 가지 인식 방법을 모두 포함한 균형잡힌 자세가 필요 분쟁, 전쟁, 착취, 이기주의 2021. 11. 4.
머신 러닝과 딥러닝의 역사 (간단요약) 머신러닝 딥러닝은 분류와 회귀 문제 해결을 위한 도구(모델) 예) 개 고양이 분류 1. 확률적 모델링 (probabilistic modeling) 통계학 이론을 빅데이터 분석에 응용한 것 초창기 머신 러닝 형태 중 하나 대표적인 모델 알고리즘은 나이브 베이즈 알고리즘 1.1 나이브 베이즈(Naive Bayes) 입력 데이터가 모두 독립이라 가정하고, 베이즈 정리(Bayes' theorem)을 적용하는 머신 러닝 분류 알고리즘 분류 알고리즘 1.2 로지스틱 회귀(logistic regression) 분류 알고리즘 (회귀 알고리즘 아님) 2. 초창기 신경망 - 1980년대 경사 하강법 최적화를 이용하여 변수가 연쇄적으로 연결된 연산을 훈련하는 기법 1989년 Yann LeCun이 합성곱 신경망과 역전파 알고.. 2021. 11. 4.
728x90