일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Framework
- r script
- OrientDB
- 토네이도
- BAEKJOON
- AWS
- 알고리즘
- mariadb
- 연결
- Java
- 자료형
- 백준
- 저지
- 설치
- Tornado
- 연동
- 프레임워크
- online
- 배열
- Judge
- ubuntu
- 자바스크립트
- 파이썬
- r
- MongoDB
- 이클립스
- Python
- API
- 오픈한글
- spring
Archives
- Today
- Total
목록softmax (1)
맛동산
Softmax 함수 구현
import numpy as np def softmax(a): c = np.max(a) exp_a = np.exp(a-c) sum_exp_a = np.sum(exp_a) y = exp_a / sum_exp_a return y a = np.array([0.3,2.9,4.0]) y3 = softmax(a) print(y3) print(np.sum(y3)) 소프트맥스 함수의 출력의 총합이 1 소프트맥스 함수를 적용해도 각 원소의 대소 관계는 변하지 않음 * 단조증가함수 -> a 결과적으로 신경망으로 분류할 때는 출력층의 소프트맥스 함수 생략 가능, 현업에서도 지수 함수 계산에 드는 자원 낭비를 줄이고자 출력층의 소프트맥스 함수는 생략하는 것이 일반적 출력층의 뉴런 수는 풀려는 문제에 맞게 적절히 정해야함. '..
파이썬/딥러닝 구현
2017. 5. 22. 21:45