-
Activation function(활성화 함수)공부/A.I 2021. 8. 10. 20:44
Activation function, 활성화 함수
- 입력된 데이터의 가중 합을 출력 신호로 변환하는 함수
- 딥러닝에서 입력받은 데이터를 다음층으로 출력할지 결정하는 역할을 한다.
활성화 함수를 사용하는 이유
- 선형분류기의 한계
- 왼쪽의 경우 선형 분류기로도 충분히 분류가능하지만, 오른쪽의 비선형적인 문제는 해결할 수 없다. 이에 대한 해결책이 바로 활성화 함수이다. 활성화 함수를 사용하면 입력값에 대한 출력값이 선형적으로 나오지 않으므로 선형분류기를 비선형적으로 만들 수 있다.
활성화 함수의 종류
- Step Function
- Sigmoid Fuction
- Hyperbolic Tangent Fuction
- ReLU, Rectified Linear Unit
'공부 > A.I' 카테고리의 다른 글
[Jetson Orin Nano] Csicam과 YOLOv8을 위한 기본 세팅 (2) 2024.07.27 [Google Teachable Machine] 마스크 착용 감지 프로그램 (0) 2021.09.12 AdaBoost (0) 2021.08.07 엑스트라 트리 (0) 2021.07.29 배깅 (0) 2021.07.29