목록전체 글 (86)
Head vs breakz

chatbot chatbot 이 website 보다 좋은 이유 새로운 interface를 배울 필요가 없다. website = 1:N , chatbot = 1:1, 개인화된 채널로 사용 더 빠르고 좋은 경험 별도의 App이 필요없다 기본 basic 방식과 Ai 학습 방식을 동시에 사용 데이터가 너무 적은 경우 basic 방식으로 결과값이 나옴

개별 가중치 값을 제한하여 모델의 복잡도를 줄이는 방법 모델이 복잡해 진다는 것은 불필요한 항이 많다는 것 L1 규제 L1 규제는 손실함수에 가중치 절대값을 추가 대부분의 특성 가중치 값이 0 실제로 관련 없는 특성이 많은 데이터의 경우 , 모델의 중요한 특성이 나타남 회귀 모델에 L1 규제를 추가 - Lasso 모델 L2 규제 손실함수에 가중치에 대한 제곱값 추가 L1보다 L2 규제를 많이사용 회귀 모델에 L2 규제를 추가 - Ridge 모델 #모델에 가중치 추가하기 from keras import regularizers #L1 규제 regularizers.l1(0.001) #L1,L2 규제 병합 regularizers.l1_l2(l1= , l2= ) #model안에서 사용 model.layers.De..

You Only Look Once YOLO는 사람처럼 한번에 사물의 종류와 개수를 파악하기 위해 만들어졌다. 이미지를 격자 그리드로 나누어 클래스를 판단하고, 정보들을 통합하여 확률 값에 따라서 최종 객체를 구분하는 방법을 사용한다. 현재 YOLO3 까지 나와 있는 상태이고, YOLO1과 비교하였을 떄에는 network 구조와 성능에 큰 차이가 있다. (현재 YOLO4가 나왔습니다. :) 조만간 YOLO4를 살펴보겠습니다.) Unified Detection 1.input image를 S x S grid로 분할 (해당 셀에 물체의 중심위치로 가정) 2.grid cell은 B개의 bounding box와 각 객체 존재에 대한 confidence score로 구성 bounding box는 x,y,w,h,con..

모델을 훈련하는 동안 무작위로 층의 일부 출력 특성을 제외 뉴런의 부정확한 부분을 제거하기 위해 착안 dropout 효과 Voting 모든 뉴런에 의존하는 것이 아닌 dropout을 통해 임의로 몇개의 뉴런만으로 학습을 시킨다. 이러한 과정을 통해 뉴런들을 평균적으로 잘 예측하게 만든다. Co-adaptation 어떠한 뉴런은 다른 뉴런에 크게 의존하고 있는데, 이 떄 만약 '나쁜' 입력을 받게 된다면 의존하고 있는 뉴런도 영향을 받게 된다. 이러한 문제를 dropout을 통해 해결 할 수 있다. dropout을 할 경우, 특정 뉴런의 영향을 받지 않기 떄문에 뉴런들이 서로 동조화 되는 것을 피할 수 있다. 참고&도움 Dive into deep learing 라온피플 Dropout: A simple wa..