미국 미래학자인 허먼 칸은 1976년에 쓴 저서에서 "과거 가난하고 자연의 힘에 끌려 다니던 인류는 200년 뒤엔 무수히 번성하고 부유하며, 자연의 힘을 통제하게 될 것"이라고 예언했다. 실제로 100년 전만 해도 세계 18억명 인구의 대다수는 자급 농업에 의지하며 극빈한 생활을 했다. 사람들의 기대 수명은 35세에 불과했다.
앞으로 100년 뒤 인류의 모습은 지금과 완전히 다를 것이다. 수명은 해마다 늘어나 장수가 가능하고, 세계 인구는 우주 공동체에 사는 사람을 포함해 100억명에 달할 것이다. 사람들은 양자컴퓨터 기술을 통해 모두 천재가 될 수 있다.
반면, 인류의 미래를 위협하는 요소도 있다. 대량 살상무기를 제조·배치하려는 집단, 피해망상을 조장하는 과도한 정보 전쟁은 인류 화합을 파괴할 수 있는 위험 요소이다. 물 부족과 지구온난화가 가져올 사회적 갈등도 심각한 문제이다. 그리고 인간의 통제 범위 밖으로 발전할 가능성이 있는 AI(인공지능) 문제도 있다.
인공지능의 미래에 대해 일부 글로벌 리더는 끔찍한 경고를 하고 있다. 테슬라 CEO인 일론 머스크는 "만약 인류를 방해하겠다는 목표를 갖게 되면, AI는 아무런 감정 없이 인류를 파괴할 수 있다"고 했다. 스티븐 호킹 박사도 "AI의 실제 위험은 악의(惡意)가 아니라 능력"이라며 "AI가 추구하는 목표가 사람들의 목표와 일치하지 않는다면 인류는 곤경에 빠질 것"이라고 했다.
AI엔 세 종류가 있다. 현재 우리가 사용하는 '좁은 의미의 인공지능(ANI· Artificial Narrow Intelligence)'은 피드백을 통해 한 가지 임무만 수행한다. 자동차를 운전하는 ANI는 암을 진단할 수 없고, 암을 진단하는 ANI는 자동차를 운전할 수 없다. 다음 단계는 새로운 상황에 적응하며 해결책을 찾아내는 '범용 인공지능(AGI·Artificial General Intelligence)'이다. 앞으로 10~20년 사이 나타날 전망이다. 마지막으로 '수퍼 인공지능(ASI·Artificial Super Intelligence)'은 인간으로부터 독립해 스스로 목표를 설정하는 인공지능이다. 머스크와 호킹이 경고한 것이 바로 ASI이다.
원자력의 평화적 이용을 위해 IAEA (국제원자력기구)가 존재하는 것처럼 인공지능의 발전을 체계적으로 관리할 수 있는 국제 거버넌스 시스템을 마련해야 한다. AI의 위협을 막고 더 나은 100년을 맞기 위해 우선적으로 해야 할 일이다. 지금의 기술 발전 속도로 보면 예상보다 더 이른 시기에 ASI가 출현할 수도 있다.
이 밖에 조직 범죄에 대응하기 위한 글로벌 통합 전략 수립, 바닷물을 이용한 농업 기술 개발, 세포 복제를 통한 육류 생산 등도 중요한 미래 과제가 될 것이다. 미래 문명을 더 가치 있게 만들기 위해 기술과 삶을 조화시키는 것도 중요한 과제이다.