고급 인공 지능 위험, 전문가 의견 및 글로벌 우려

샘 알트먼을 비롯한 인공지능(AI) 분야의 리더들은 인공지능이 초래할 수 있는 잠재적 실존적 위험에 대해 엄중한 경고를 내리고 있습니다. 이들의 우려는 전 세계적인 팬데믹이나 핵전쟁의 위험과 맞먹는 수준입니다.

 

AI의 잠재적 위협에 대한 알트만의 주장

 

ChatGPT를 도입한 OpenAI의 CEO인 샘 알트먼은 비영리 연구 기관인 AI 안전 센터가 발표한 '인공지능 위험 성명서'를 지지한 300명의 전문가 중 한 명입니다. 이 선언문은 AI로 인한 '멸종 위험'을 완화하는 것이 전염병이나 핵전쟁과 같은 다른 대규모 사회적 위험과 함께 전 세계적인 우선 순위가 되어야 한다고 요구합니다.

 



선언의 목적과 주요 서명자

 

선언문의 서문은 AI 기술이 초래할 수 있는 잠재적인 글로벌 재앙에 대비하는 방법에 대한 대화를 시작하고자 한다고 밝히고 있습니다. 이 성명서의 주요 서명자로는 전직 구글 엔지니어인 제프리 힌튼과 몬트리올 대학교의 컴퓨터 과학자 요슈아 벤지오가 있습니다. 현대 컴퓨터 과학에 크게 기여한 공로로 'AI의 아버지'로 불리는 이들은 최근 AI가 가까운 미래에 가져올 잠재적 위험에 대해 우려를 표명했습니다.

 

고급 AI에 대한 우려의 확산

 

첨단 AI 연구의 재앙적 결과에 대한 우려를 표명하는 것은 새로운 일이 아닙니다. 테슬라의 CEO인 엘론 머스크도 지난 3월 1,000명 이상의 기술자와 전문가가 지지한 첨단 AI 연구 6개월 중단을 촉구하는 성명서를 제출하면서 이 기술의 파괴적인 잠재력을 암시한 바 있습니다.

 

알트먼의 경고와 힌튼의 대응

 

알트먼은 기술의 급속한 발전을 고려할 때 규제가 충분하지 않다고 의회에 경고했습니다. 그러나 그의 최근 메모에는 이전 서한과 달리 관련 논의를 촉발하는 것 외에 구체적인 목표가 없습니다. 이와는 대조적으로 힌튼은 이달 초 CNN과의 인터뷰에서 3월 성명서에 서명하지 않았다고 밝혔습니다. 그는 특히 이 분야에서 미국과 중국 간의 경쟁이 계속되고 있는 점을 고려할 때 AI 연구를 중단하는 것은 '비현실적'이라고 언급했습니다.

 

AI 시대의 규제와 잘못된 정보

 

OpenAI와 구글을 포함한 주요 AI 개발업체의 리더들은 정부에 보다 신속한 AI 규제를 촉구하고 있습니다. 그러나 일부 전문가들은 잘못된 정보와 잠재적 편견이 존재하는 상황에서 기술의 미래 실존적 위험에 대해 논의하는 것은 비생산적이라고 경고합니다.

 

초지능 AI에 대한 실존적 우려와 두려움

 

AI의 실존적 위험은 혼란과 우려를 불러일으켰습니다. 독립적인 사고와 추론이 가능한 초지능 AI가 예상보다 빨리 우리 곁에 다가올 것이라는 두려움이 커뮤니티 내에서 커지고 있습니다. 일부 전문가들은 이 기술이 현재 인간의 이익과 복지에 부합하지 않는다고 경고합니다.

 

AI 위험에 대한 즉각적인 대화의 필요성

 

워싱턴 포스트와의 인터뷰에서 힌튼은 초지능 AI의 시대가 빠르게 다가오고 있으며 불과 20년 밖에 남지 않았다고 주장했습니다. 그의 주장은 첨단 AI의 잠재적 위험에 대한 즉각적인 논의가 시급함을 강조합니다. 그는 이러한 논의가 단순히 공상 과학 소설에서 나온 추측이 아니라고 지적합니다. 이는 즉각적으로 해결해야 할 현실적인 우려입니다.

  

전문가들의 성명과 담론의 촉구는 AI가 우리 문명에 미칠 수 있는 잠재적인 실존적 위험을 극명하게 상기시켜 줍니다. AI가 놀라운 속도로 계속 발전하고 있는 지금, 발전을 위해 노력하는 동시에 발생할 수 있는 파장을 고려하는 것이 그 어느 때보다 중요해졌습니다. 기술 발전이 의도치 않게 재앙으로 이어지지 않도록 혁신과 신중함의 균형을 맞추는 것이 필요합니다.

이 블로그의 인기 게시물

현재 미국 경제의 세 가지 중요한 측면 풀기

우크라이나 대반격 멈추다

필리핀 가사도우미 한국 상륙, 100명 한정 한달 200만원