일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Judge
- 연결
- AWS
- MongoDB
- 백준
- 배열
- 오픈한글
- r
- 자바스크립트
- 연동
- 프레임워크
- OrientDB
- 이클립스
- Tornado
- 설치
- mariadb
- 저지
- ubuntu
- Framework
- 자료형
- BAEKJOON
- online
- API
- 알고리즘
- Python
- spring
- 파이썬
- Java
- 토네이도
- r script
- Today
- Total
목록파이썬 (63)
맛동산
가중치는 책에 있는거 가져와서 씀(chap03) # coding: utf-8 import sys, os sys.path.append(os.pardir) # 부모 디렉터리의 파일을 가져올 수 있도록 설정 import numpy as np import pickle from dataset.mnist import load_mnist from common.functions import sigmoid, softmax np.max def get_data(): (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=True) #print(len(t_train)) #print(len(t_test)) retur..
훈련 데이터에 대한 손실 함수의 값을 구하고, 그 값을 최대한 줄여주는 매개변수를 찾아내는것이 기계학습의 과정. 이렇게 하려면 모든 훈련 데이터를 대상으로 손실 함수 값을 구해야함. 수백 수천만이 넘든 데이터를 대상으로 손실함수를 계산하는 것은 비용적인 문제가 있음. 그럴때 데이터 일부를 추려 전체의 근사치로 이용하는데 이것을 mini batch라고 함 import sys, os sys.path.append(os.pardir) # 부모 디렉터리의 파일을 가져올 수 있도록 설정 import numpy as np import pickle from dataset.mnist import load_mnist from common.functions import sigmoid, softmax def get_data(..
# normalize = True : 0.0~1.0 사이로 정규화, False : 0~255 사이 값 유지 # flatten = 1차원 배열로 평탄화할지 -> 1*28*28 vs 784 # one_hot_label = True : 정답인 라벨의 원소만 1 [0,0,1], False : 1, 5 등 정답 자체를 저장
import numpy as np def mean_squared_error(y,t): return 0.5 * np.sum((y-t)**2) def cross_entropy_error(y,t): delta = 1e-7 return -np.sum(t*np.log(y+delta)) # 정답이 아닌 나머지는 tk = 0이므로 정답일 때의 출력이 전체 값을 정하게 된다 t = [0,0,1,0,0,0,0,0,0,0] # 답은 2 y = [0.1,0.05,0.6,0,0.05,0.1,0,0.1,0,0] # 0.6의 출력으로 2라고 추정 print(mean_squared_error(np.array(y),np.array(t))) print(cross_entropy_error(np.array(y),np.array(t))) ..
배열을 하나씩 던져주는것보다 묶음으로 던져주는게 순수 CPU 가용량이 좋다 # coding: utf-8 import sys, os sys.path.append(os.pardir) # 부모 디렉터리의 파일을 가져올 수 있도록 import numpy as np import pickle from dataset.mnist import load_mnist from common.functions import sigmoid, softmax def get_data(): (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False) return x_test, t_test def init_network()..
데이터 전체의 분포를 고려해 전처리 ex) 데이터 전체 평균과 표준편차를 이용, 데이터들이 0을 중심으로 분포하도록 이동, 데이터 확산범위를 제한하는 정규화 그 외에도 전체 데이터를 균일하게 분포시키는 데이터 백색화 등
[.2 .8 .4 .4 .5] np.max -> .8 (최대값) np.argmax -> 1 (최대값의 인덱스) 이산문제의 경우 신경망 출력층에서 np.argmax의 인덱스로 분류
백준 알고리즘 저지 1932번 문제 (https://www.acmicpc.net/problem/1932) a=[] for i in range(int(input())): if i==0:a.append(int(input())) elif i==1: aa,bb=list(map(int,input().split())) a.append([aa+a[i-1],bb+a[i-1]]) else: temp=list(map(int,input().split())) a.append([]) c = 0 for j in temp: if c==0: a[i].append( a[i-1][0]+j ) elif c==len(temp)-1: a[i].append( a[i-1][-1]+j ) else: if a[i-1][c-1]+j>a[i-1][c]..
백준 알고리즘 저지 1929번 문제 (https://www.acmicpc.net/problem/1929) 소수 구하는 식이 있었음 입력값 % 2~sqrt(입력값)+1 == 0 인 경우는 소수가 아님 from sys import stdin import math def jud(num): if num==1:return False n=int(math.sqrt(num)) for i in range(2,n+1): if num%i==0:return False return True m,n=map(int,stdin.readline().split()) for i in range(m,n+1): if jud(i)==True:print(i)