AI Basic

Neural Network & Multi-Layer Perceptron

yudam 2021. 12. 29. 17:31

Neural Networks

  • 애매하게 사람의 뇌를 모방?
  • 함수를 모방하는 approximator

Linear Neural networks

“어떻게 w와 b를 찾을까?” - backpropagation과 gradient descent/ascent update

stepsize를 자동으로 바꿔주는 optimizing이 필요 - adapted learning rate

 

차원이 다를 때

  • matrix 사용
  • 두 개의 벡터 스페이스 간의 변환 : 선형성을 가지는 변환이 있을 때, 그 변환은 항상 행렬로 표현된다.

 

딥러닝은 결국 neural network를 deep하게 쌓겠다는 뜻.

단순한 행렬곱에 지나지 않기 때문에 1단 뉴럴 네트워크.
x→y의 매핑의 표현력을 극대화하기 위해서는 activation function등을 곱해서 nonlinear transform을 n번 거쳐 더 많은 표현력을 확보.

 


Nonlinear function

Universal approximators

Hidden layer가 하나 있는 Neural network 의 표현력은 어떤 대부분의 continues 하고 measurable 한 function을 거의 맞출 수 있다. - 단, 내 게 정확하다고는 볼 수 없다..

 

loss function

  • MSE의 경우, 예측값에 비해 너무 튀는 데이터가 있으면 주의.
  • CE의 경우, onehot vector로 표현되는 classification task 특성을 고려할 때 상대적으로 다른 값에 비해 특정 라벨의 아웃풋이 조금이라도 크기만 하면 됨. 이를 수학적으로 표현하기 어려우므로 CE를 사용함. 과연 나의 task에 ce를 사용하는 것이 최적일까? 를 고민
  • MLE의 경우, 단순한 분류가 아니라 uncertainable한 자료까지도 얻고 싶을 때 사용할 수 있음.

 

* 본 포스팅은 네이버 부스트캠프 AI Tech 3기 Pre-Course 강의를 정리한 내용입니다. https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424 

'AI Basic' 카테고리의 다른 글

Python Object Oriented Programming  (1) 2021.12.29
RNN  (0) 2021.12.29
CNN  (0) 2021.12.29
Optimization  (0) 2021.12.29
Deep learning Preview  (0) 2021.12.29