deeplearningfromscratch #밑바닥부터시작하는딥러닝 #딥러닝 #퍼셉트론

Deep Learning/from scratch I

[밑바닥부터 시작하는 딥러닝 - 3장 신경망]

y= h(b+w1x1+w2x2) 가중치곱에 편향을 더한후 활성화 함수를 거쳐 output으로 출력됨. 활성화 함수는 말 그대로 입력신호의 총합이 활성화를 일으키는지를 정하는 역할을 함. 활성화 함수는 비선형함수로 분류됨 활성화 함수 1. 시그모이드 함수 신경망에서 자주이용되는 함수이다 def sigmoid(x): return 1/ (1+np.exp(-x)) 2. 계단함수 0이하는 0, 양수는 1로 나타나는 함수다. 넘파이 배열에 관하여 다음과 같이 구현함 def step_function(x): y = x>0 return y.astype(np.int) return y.astype(np.int)는 boolean 형태로 true false가 나올때, 이것을 1,0으로 변환함 시각화 하면 다음과 같이 나온다 i..

Deep Learning/from scratch I

[밑바닥부터 시작하는 딥러닝 - 2장 퍼셉트론]

가중치 w1과 w2는 각 입력신호가 결과에 영향을 주는 영향력(중요도) 조절 편향(b) 는 뉴런이 얼마나 쉽게 활성화(결과를 1로 출력) 하느냐를 조정하는 매개변수 AND 게이트 전리표 x1 x2 y 0 0 0 1 0 0 0 1 0 1 1 1 def AND(x1,x2): w1,w2,theta = 0.5,0.5,0.7 tmp = x1*w1 + x2*w2 if tmp = theta: return 1 NAND 게이트 전리표 (AND의 반대) x1 x2 y 0 0 1 1 0 1 0 1 1 1 1 0 def NAND(x1,x2): x= np.array([x1,x2]) w= np.array([-0.5,-0.5]) b=0.7 tmp = np.sum(w*x)+b if tmp

해파리냉채무침
'deeplearningfromscratch #밑바닥부터시작하는딥러닝 #딥러닝 #퍼셉트론' 태그의 글 목록