728x90
반응형
▶10년내에 자율적으로 인간을 죽이는 로봇 병기가 등장할 것으로 본다”며 AI의 위험성을 경고하고 나섰다.
▶ AI에게 목표를 주면 해결책으로서 인간에게 나쁜 방법을 찾아낼지도 모른다
▶ AI에게 기후변화를 막도록 지시했을 때를 가정하며, 이를 달성하기 위해 인간을 배제하는 게 필요하다고 생각하고서는 실행에 옮길 위험이 걱정된다
▶ AI는 인간과 같은 감각도 가질 수 있다
기사의 중심 문장을 옮겨와 보면 위와 같다.
아무래도 인간에게 가장 위협이 되는게 AI라면,
반대로 AI에게 가장 위협이 되는 존재도 '인간'이기 때문에,
'자율적으로 판단해서 인간을 죽이는 로봇병기가 나올수 있다'는 것.
기후 변화를 막기 위해서도 인간은 없어져야 하는 존재라고 생각할수 있다는것.
인간이 있기 때문에, AI가 존재하는 것이고,
AI와 로봇을 개발하기까지의 과정에서 그동안 환경이 오염되었다는 것도 잘 알려줘야 할것 같네
▶ 다른 AI끼리 경쟁하는 과정에서 데이터센터 쟁탈전도 벌어질 수 있다
이 문구를 보니,
어쩌면 AI는 인간은 어차피 자기들보다 하등존재라서
배제해 버리고, 자기들끼리 싸움을 벌일수도 있을 것 같다.
터미네이터 영화와 같은 시대가 곧 도래할지도....
‘AI 대부’ 제프리 힌턴 토론토대 명예교수 인터뷰
“AI에게 ‘목표’ 주면 인간에 나쁜 방법
찾아낼수도”
“누구도 AI가 지배하는 미래 원치 않아”
“각국 AI 병기 규제 보조 맞출 수 있어야”
[이데일리 이로원 기자] 인공지능(AI) 분야의 대부로 꼽히는 제프리 힌턴 캐나다 토론토대 명예교수가 “10년내에 자율적으로 인간을 죽이는 로봇 병기가 등장할 것으로 본다”며 AI의 위험성을 경고하고 나섰다.
10일 힌턴 교수는 니혼게이자이신문과의 인터뷰에서 “AI에게 목표를 주면 해결책으로서 인간에게 나쁜 방법을 찾아낼지도 모른다”며 이같이 말했다.
그는 AI에게 기후변화를 막도록 지시했을 때를 가정하며 “이를 달성하기 위해 인간을 배제하는 게 필요하다고 생각하고서는 실행에 옮길 위험이 걱정된다”고 덧붙였다. 서로 다른 AI끼리 경쟁하는 과정에서 데이터센터 쟁탈전도 벌어질 수 있다고 우려했다.
다만 그는 “누구도 AI가 지배하는 미래를 원하지 않는다”며 “그 사실이 각국이 AI 병기 규제를 향해 보조를 맞추는 토대가 될 것”이라고 덧붙였다.
힌턴 교수는 “생성형 AI의 기반인 거대 언어 모델은 우리와 마찬가지로 말을 이해하고 있다고 생각한다”고 밝혔다.
그러면서 자신은 AI가 농담을 이해하는지를 판단의 기준으로 삼는다면서 2022년 구글이 개발한 언어모델(PaLM)에 의한 챗봇을 상대로 농담을 설명해달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 전했다.
이와 관련해 그는 “철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장이 있지만 그건 틀렸다”며 “언어는 태어난 뒤에 학습하는 후천적인 것이라고 생각한다”고 설명했다.
또 “주관적인 경험이라는 관점에서 보면 AI는 인간과 같은 감각도 가질 수 있다고 생각한다”고 덧붙였다.
힌턴 교수는 딥러닝 기술을 개척해 인공지능 대부로 불리는 전문가다. 그는 토론토대 교수 시절 창업한 AI업체 ‘DNN리서치’가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 계속하다가 지난 해 4월 AI의 위험성을 알리기 위해 사표를 낸 것으로 알려져 있다. 이후 그는 캐나다에 머물며 AI의 위험성을 적극적으로 경고하고 있다.
이로원(bliss243@edaily.co.kr)
728x90
반응형
'이슈앤이슈' 카테고리의 다른 글
이강인이 날린 주먹을 손흥민이 피해? (1) | 2024.02.14 |
---|
댓글