쉬엄쉬엄블로그

(딥러닝) Neural Networks & Multi Layer Perceptron 본문

부스트캠프 AI Tech 4기

(딥러닝) Neural Networks & Multi Layer Perceptron

쉬엄쉬엄블로그 2023. 5. 27. 12:01
728x90

이 색깔은 주석이라 무시하셔도 됩니다.

Neural Networks

  • "Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains." - wikipedia


    • Neural networks은 동물 두뇌의 생물학적 신경망을 통해 애매한 영감을 받은 연산 체계이다.
    • 시작은 인간의 뇌를 모방하고 뉴런의 동작 방법을 모방하는 것으로 시작했지만 지금의 딥러닝 연구 트렌드는 인간의 뇌를 모방해서 잘 된다고 말하기에는 많이 달라졌다.
  • Neural networks are function approximators that stack affine transformations followed by nonlinear transformations.

    • 뉴럴 네트워크는 비선형 변환과 아핀 변환이 반복적으로 이루어져있는 근사 함수

Linear Neural Networks

  • Let's start with the most simple example.

    • 가장 간단한 예제부터 확인해보자

  • We compute the partial derivatives with respect to the optimization variables.

    • 최적화 변수에 대해 편미분 계산

  • Then, we iteratively update the optimization variables.

    • 그 후, 최적화 변수를 반복적으로 갱신

  • of course, we can handle multi dimensional input and ouptut.

    • 다차원 입력과 출력도 처리할 수 있음

Beyond Linear Neural Networks

  • What if we stack more?

    • Linear Neural Networks를 더 쌓는다면 어떨까?

  • We need nonlienarity.

    • Linear Neural Networks를 더 쌓아서 모델이 좋은 성능을 보이려면 비선형성이 필요함

    • 선형 결합 후에 activation function을 곱해서 nonlinear transform을 거치도록 하여 오차가 줄어들도록 변수들을 갱신시킴

  • Activation functions

  • 뉴럴 네트워크의 표현력이 굉장히 크지만 이걸 어떻게 찾는지는 잘 모름

Multi-Layer Perceptron

  • This class of architectures are often called multi-layer perceptrons.

    • 이러한 구조를 다층 퍼셉트론 구조라고 부름

  • Of course, it can go deeper.

    • 더 깊게 쌓을 수도 있음

  • What about the loss functions?

    • 어떤 loss function이 있을까?

  • 선형 결합을 n번 반복하는 것이 아니라 선형 결합 후에 activation function을 곱해서(이용해서) nonlinear transform을 거치는 것을 반복하여 얻어지는 feature vector가 많은 표현력을 갖게 됨

출처: 부스트캠프 AI Tech 4기(NAVER Connect Foundation)

Comments