일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 이클립스
- 자바스크립트
- r script
- r
- API
- 알고리즘
- Java
- mariadb
- 자료형
- Tornado
- Framework
- Python
- 토네이도
- 연동
- ubuntu
- 파이썬
- 배열
- 오픈한글
- BAEKJOON
- 연결
- Judge
- 저지
- spring
- 백준
- OrientDB
- online
- 설치
- MongoDB
- AWS
- 프레임워크
- Today
- Total
목록분류 전체보기 (227)
맛동산
- 오늘 한 일 오픈한글 딥러닝 구현 - 내일 할 일 오픈한글 딥러닝 구현 - 조만간 해야할 일 AWS 구축법 공부 RESTful api 구축법 공부 클라우드 펀딩 - 장기 계획 서버구축 : AWS에 오픈한글 구축 NLU : 핵심문장 추리기, 다시 원래 문장으로 복원하기
훈련 데이터에 대한 손실 함수의 값을 구하고, 그 값을 최대한 줄여주는 매개변수를 찾아내는것이 기계학습의 과정. 이렇게 하려면 모든 훈련 데이터를 대상으로 손실 함수 값을 구해야함. 수백 수천만이 넘든 데이터를 대상으로 손실함수를 계산하는 것은 비용적인 문제가 있음. 그럴때 데이터 일부를 추려 전체의 근사치로 이용하는데 이것을 mini batch라고 함 import sys, os sys.path.append(os.pardir) # 부모 디렉터리의 파일을 가져올 수 있도록 설정 import numpy as np import pickle from dataset.mnist import load_mnist from common.functions import sigmoid, softmax def get_data(..
# normalize = True : 0.0~1.0 사이로 정규화, False : 0~255 사이 값 유지 # flatten = 1차원 배열로 평탄화할지 -> 1*28*28 vs 784 # one_hot_label = True : 정답인 라벨의 원소만 1 [0,0,1], False : 1, 5 등 정답 자체를 저장
import numpy as np def mean_squared_error(y,t): return 0.5 * np.sum((y-t)**2) def cross_entropy_error(y,t): delta = 1e-7 return -np.sum(t*np.log(y+delta)) # 정답이 아닌 나머지는 tk = 0이므로 정답일 때의 출력이 전체 값을 정하게 된다 t = [0,0,1,0,0,0,0,0,0,0] # 답은 2 y = [0.1,0.05,0.6,0,0.05,0.1,0,0.1,0,0] # 0.6의 출력으로 2라고 추정 print(mean_squared_error(np.array(y),np.array(t))) print(cross_entropy_error(np.array(y),np.array(t))) ..
> 회원가입 모듈 완성 > 암호화 > 복호화 테스트 필요 > 아이디 중복 체크
- 오늘 한 일 오픈한글 - 내일 할 일 독일어 - 조만간 해야할 일 AWS 구축법 공부 RESTful api 구축법 공부 클라우드 펀딩 - 장기 계획 서버구축 : AWS에 오픈한글 구축 NLU : 핵심문장 추리기, 다시 원래 문장으로 복원하기
> 메인페이지 틀 구성 > 메뉴바 반응형으로 > 회원가입 폼 > js, css 수정 > 회원가입 관련 서블릿 틀 생성
if(document.getElementsByName("agree")[1].checked==true){ document.getElementsByName("agree")[1].value } 꼴을 반복문으로