Dropout In a Complex Neural Newwork All Nodes do not take the same amount of respsibility All Nodes are not equally trained 학습 시키다 안시키다를 반복해? 사전에 정해진 P (Drop out Porbability) (1-P: Retain Probability) 매 Epoch 마다 랜덤하게 P만큼 뺴버리자! Weight Decay는 잘 되는 애들을 가지고 계속 해네자. 랜덤하게 고르면서 균등하게 학습하는 것을 Drop out 이라 한다. Complex가 낮은 노드들이 학습되는 효과가 있다. Testing Test 할 때는 모든 노드를 다쓰기 떄문에 Train 할 때와 net값이 다르다. Testi 할 때는 n..