무엇보다도 번역이 '맞았다' '틀렸다'라고 누군가가 판정을 해줘야하고..
그게, 기보수를 딥마인드가 본만큼 되야하는데다가..
기보수를 본만큼의 페이지를 번역하는게 아니라..
한 단어당 기보수만큼 번역을 해야할수도 있어요.
즉 1개의 단어당 1만번씩 사용되는 예를 인공지능이 번역을 해야하고..
그게 맞았는지 틀렸는지, 사람이 확인을 해줘야하는거죠.
많이 다르죠.
그리고, 언어가 실제 외부적인 상황과 연관되어 있지만..
(경북 고속도로, 잠실, 강남...)
알파고 정도의 빅데이터+ 컴퓨터 자원 지원이 있다면 이론적으로는 가능하죠
알파고가 수억개의 대국기보와 구글의 수퍼컴퓨터 자원을 통해 경우의 수를 연산해낸 것처럼
번역도 단어의 연결이 아닌 문장이나 관용구를 마치 단어처럼 통채로 빅데이터화 시키면 훨씬 더 매끄러운 번역이 가능하겠지만...
문제는 알파고의 경우 한판의 대국만을 위해서도 그렇게 많은 자원이 필요했는데..
구글 번역서비스의 경우에는 사용자가 한사람이 아니라 수천 수만 수억이죠
따라서 빅데이터와 엄청난 컴퓨터 자원이 필요한 몬테카를로 방식의 알파고 알고리즘을 번역서비스에 적용하기에는 한계가 있다는 거죠
따라서 애초에 전혀 다른 개념의 알고리즘이 필요하다는 이야기