본문 바로가기

스티븐 호킹이 우주 식민지,인공지능등 인류의 미래에 대해 한 말들 2006년 스티븐 호킹은 "정치적, 사회적, 환경적으로 혼란스러운 세상에서 인류가 앞으로의 100년을 어떻게 유지할 수 있을까?"라는 질문을 인터넷에 공개적으로 제시했습니다. 그는 " 나는 답을 모른다. 이 주제에 대해 사람들이 생각하고 있는지 또한 위험에 대한 인식을 하고 있는 것인지를 묻고싶었다."라는 말을 했습니다. 호킹 박사는 "지구의 모든 생명체가 갑작스러운 핵전쟁, 유전적으로 조작된 바이러스, 지구 온난화, 더불어 아직 그 위험성이 드러나지 않은 것들로 인한 위험에 처해있다."라고 우려를 표명했습니다. 하지만 이런 행성 전체에 초래될 수 있는 위험에 대해 지구 밖 우주에 식민지를 건설할 수 있다면 인류가 멸종될 걱정을 덜 수 있다는 점에서 호킹은 우주 개척과 우주 식민지화가 인류의 미래를 위해.. 더보기
인공지능을 통한 무기 개발 경쟁은 인류에게 절대 유익하지 못하다. 스티븐 호킹 박사는 "인공지능의 발명은 인류 역사상 최대의 사건인 동시에 마지막 사건이 될 가능성이 있다."라는 말을 했고 엘론 머스크는 "AI는 악마를 호출하는 것이다."또 빌 게이츠는 "인공지능은 확실히 불안을 초래하는 문제이다. 컨트롤만 잘된다면 로봇은 인간에게 행복을 가져다 주겠지만 로봇의 지능이 인간 수준으로 발전하게 되면 반드시 걱정거리가 될것이다" 라는 말을 하기도 했습니다. 인공지능은 진보와 위험이라는 양면의 칼날을 가지고 있는데요 인공지능이 군사부문에서 사용되어 질 경우에는 진보 보다는 위험에 그 무게가 더 실리는 것만은 틀림 없을 것같습니다. 팔랑크스 CIWS선진국에서는 군대의 미사일 방어 분야에서 인공지능을 이용한 자동화 시스템을 도입 중입니다. 미 해군의 경우 완전 자동화 방공 시스.. 더보기