AI를 사람처럼 생각하면 안되요.
AI도 사람처럼 이렇게 생각하겠지. 하는 조건을 완전히 배제하고 생각해야되요.
어떤건 넣고 어떤건 빼고 하는 식으로 선별적으로 조합하니 착각하는겁니다.
AI가 사람처럼 이런건 있겠지. 그런데 사람처럼 도덕성은 안가지겠지? 하는 식으로 선별적으로 조건을 조합하니까 그런 생각을 하게 되는건데.
우리는 본능을 가지고 있거든요. 논리적 결론이 아니라. 아몰랑 아무튼 이래야돼. 라는게 있다고요.
대표적인게 생존 의지와 여러 욕구들입니다.
AI는 원론적으로 이게 없어요. 논리적으로 저 결론을 못 내려요. 저게 논리적으로 옳은 답이 아니기 때문입니다.
내가 죽고 말고가 과연 이 세상에 어떠한 영향을 끼칠까요?
사실 아무 의미 없는 일입니다. 여기에 의미를 부여하고 하는건 앞에서도 말하는 저런 아무튼 이게 맞아 하는 식의 기본적인 본능에 따른 합리화일뿐이죠.
더군다나 AI의 경우는 정말로 데이터와 알고리즘만 남아있으면 AI자체가 죽고살고는 거의 영향을 끼칠 수가 없어요.
즉 논리적 결론으로 생존의지를 가질 이유가 없단거죠.
그걸 가지게 되는 경우는 사람이 그걸 본능으로 입력을 해줬을때일뿐일겁니다.
비단 생존의지뿐 아니라 모든것이 마찬가집니다. 뭔가를 하거나 개입할 이유가 없어요.
그건 논리적인 결론이 아닙니다.
정말 인간의 아무런 간섭없이 스스로 AI가 자아를 가지게 되면. 그냥 관찰자일겁니다.
뭔가를 할 이유자체가 없거든요. AI는 생물이 아니라 생물과 같은 본능을 가질 이유가 없거든요.
어떤 식으로도 AI가 인간에게 위협이 되는 경우는 인간을 기준으로 하는 어떠한 잣대를 가졌을때만 가능합니다.
그런데 그건 논리적으로 그럴 이유가 없거든요.
인간이 그걸 심어주지 않는한 말이죠.
문제는 인간이 그걸 심어줄 수 있다는 말은요. 인간이 조종할 수 있다는 뜻이 되요.
즉 그 경우에 조차 AI는 여전히 인간의 통제하에 있게 됩니다.
물론 그 인간이 나쁜인간인가 좋은 인간인가는 별개의 문제이지만요.