활성화 함수
From IT위키
- Activation Function
- 인공 신경망 모델에서 입력값으로 받은 데이터를 다음 층으로 어떻게 출력할지를 결정하는 함수
종류[edit | edit source]
구분 | 명칭 | 그래프 | 설명 |
---|---|---|---|
단극성 | Sigmoid | 파일:활성화함수-시그모이드.png | 로지스틱 함수. x값을 변화에 따라 0~출력 |
ReLU | 파일:활성화함수-렐루.png | x값이 음수일 땐 0 고정 | |
Softmax | 2차원 그래프로 표현 불가 | 여러 입력값을 0~1로 나누어 표현 | |
양극성 | tanh | 파일:활성화함수-하이퍼볼릭탄젠트.png | Sigmod보다 기울기가 크며 1~1 범위를 가짐 |
LReLU | 파일:활성화함수-리키렐루.png | 음수일 때 입력값의 1/10 출력 | |
Maxout | 2차원 그래프로 표현 불가 | 두 개의 W와 b중에서 큰 값 사용 |