목록Ai (11)
Head vs breakz

현재 다양한 분야에서 챗봇을 제작하고, 챗봇을 통해 서비스를 제공하고 있습니다. '어디서 챗봇을 제작한다'라는 말은 이제 흔하게 듣는 이야기가 되었고, 챗봇을 통한 서비스 제공은 점점 일상이 되어가고 있습니다. 챗봇을 이용한 서비스는 많이 등장하는데, '과연 누가 챗봇을 사용하는가?'라는 질문에는 답변을 생각해본다면, '필요한 사람이 쓰겠지'라고 대부분 이야기 할 것입니다. 다시, 다른 질문을 해본다면 '당신은 챗봇을 1달동안 몇번 사용해보았나요?'의 답변은 대답하기 어려울 것입니다. 새롭게 등장하는 챗봇은 많지만, 고객이 사용하지 않아 없어지는 챗봇또한 많이 있습니다. 그 만큼 챗봇은 불안정하며, 해결해야 할 것이 많은 분야입니다. 지금부터 이야기 할것은 챗봇에서 최소한으로 가지고 있어야 하는 요소입니..

facebook에서 새롭게 등장한 blender 사용방법을Colab에서 알아보겠습니다. 1. 준비 !git clone https://github.com/facebookresearch/ParlAI.git !pip install parlai %cd ParlAI/ 2. 실행 90M !python parlai/scripts/safe_interactive.py -t blended_skill_talk -mf zoo:blender/blender_90M/model 2.7B !python parlai/scripts/safe_interactive.py -t blended_skill_talk -mf zoo:blender/blender_3B/model 9.4B !python parlai/scripts/safe_interact..

training data 데이터셋은 모두 영어로 된 것을 사용하였습니다. Pre-training으로는 많은 연구에서 사용된 Reddit를 사용하였습니다. subreddits의 경우는 다양한 주제를 다루기 떄문에 오픈-도메인으로 학습하는데 큰 도움이 됩니다. 데이터는 heuristic rule를 통해 필터링을 하였습니다. 그리고 총 9개의 조건 중 하나라도 충족되면 댓글과 하위 댓글을 삭제 시켰습니다. 1. 저자가 봇 인 경우 2. 영어가 아닌 경우 3. 댓글이 제거/삭제 된 경우 4. 띄어쓰기를 제외한 2048개의 문자 일 경우 5. 128 BPE tokens 보다 길 경우 6. 5개 문자보다 짧은 경우 7. URL를 포함한 경우 8. 시작이 non-ASCII 문자인 경우 9. 깊이가 7보다 더한 경우...

2020년 4월 30일 , Recipes for building an open-domain chatbot의 논문이 arxiv에 나왔습니다. : ) arxiv.org/abs/2004.13637 Recipes for building an open-domain chatbot Building open-domain chatbots is a challenging area for machine learning research. While prior work has shown that scaling neural models in the number of parameters and the size of the data they are trained on gives improved results, we show that ..