ai가 정말 위협적이라면 잘 개발된 ai는 비대칭 무기가 될 수 있습니다.
그런 의미에서 ai 개발을 중단한다는 것은 핵개발을 안하겠다는 것과 비슷한 맥락인데 중국이 ai를 개발하고 있는 것을 보고도 과연 미국이 ai 개발을 중단할까요?
그리고 한국은 ai 개발을 포기할 수 없는 위치에 있습니다. 출산률 감소로 인해 노동 인구가 급격히 감소할텐데 ai조차 없다면 한국의 경제는 빠르게 축소될 수 밖에 없죠.
결국 누군가는 ai를 개발할 것이고 ai 개발 자체엔 딱히 도덕적 문제도 없으니 ai 개발 자체를 중단하자고 주장하기 보단 ai 윤리를 빠르게 확립하고 강제할 수단을 만들어서 리스크를 줄이는게 현실적일겁니다.