AI는 ‘청사진’이 될까 ‘흑역사’가 될까?…이상욱 유네스코 세계과학윤리위원회 부위원장 [뉴스를 만나다]

입력 2023.06.04 (21:19) 수정 2023.06.04 (22:08)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

[앵커]

챗 GPT가 촉발시킨 인공지능 열풍이 거셉니다.

커다란 변화가 닥친 것은 분명해 보이는데 이것이 장밋빛 청사진일지 아니면 또 하나의 흑역사를 쓰게 되는 건 아닐지 전망은 좀 엇갈립니다.

'뉴스를 만나다' 오늘은 과학과 철학 두 분야를 다 연구하고 현재 유네스코 세계과학기술윤리위원회 부위원장을 맡고 계신 이상욱 한양대 교수를 모셨습니다.

어서 오십시오.

(예, 안녕하세요.)

처음에는 그저 신기하기만 하다가 갈수록 우려와 두려움의 목소리도 조금씩 나오는 것 같습니다.

먼저 말씀을 여쭙기 전에 최근에 뉴스가 됐던 인공지능의 인류 위협 사례들을 몇 가지 좀 살펴보겠습니다.

얼마 전에 미국 국방부 청사에서 폭발이 일어났다며 사진까지 인터넷으로 퍼졌는데 이게 AI가 만든 가짜 뉴스였습니다.

증시가 출렁이는 등 일대 혼란을 야기했었죠.

또 최근 벨기에에서는 한 남성이 목숨을 끊었는데 AI와의 대화 과정에서 부정적인 영향을 받았다는 분석이 있습니다.

이 AI가 극단적인 선택을 부추긴 게 아니냐 하는 논란이 일었습니다.

교수님, 이미 오래전부터 공상과학 영화라든가 소설을 보면 인공지능의 인간 위협 이걸 많이 상상을 해 왔는데, 그런 상상이 이제 현실화되는 초입이라고 보면 될까요?

[답변]

예, 불행히도 좀 그런 것 같습니다.

특히나 염려스러운 게 AI 기술의 현재 상태는 공상과학 영화 수준이 아니거든요.

그럼에도 불구하고 파급 효과 면에서 이미 우리는 초입에 왔다고 보는 게 맞는 것 같습니다.

[앵커]

실제로 이런 사례들이 나타났으니까요.

지난주에는 AI 분야에 종사하는 과학자, 경영자 350여 명이 AI의 위험성을 핵전쟁 수준으로 봐야 한다 이런 성명을 냈습니다.

또 심지어는 구글에서 인공지능 개발에 참여했던 제프리 힌튼 박사가 "후회한다. 킬러 로봇이 나올지도 모른다" 이런 얘기를 하기도 했고요.

이런 우려에 대해서 기본적으로 같은 생각을 갖고 계신지요?

[답변]

예, 메시지는 굉장히 공감하는데 약간 조심해야 될 게 킬러 로봇이라는 건 원래 자율형 살상 무기를 뜻하는 전문 용어인데요.

힌튼 박사님이 그 말씀을 하실 때는 꼭 그 전쟁 상황과 같은 극단적 상황이 아니라 우리가 통제 불가능하게 인공지능이 활용될 때는 사회 전반적으로 거의 킬러 로봇, 아까 그 벨기에 사태(자살 유발 사건)처럼 그런 일들이 벌어질 수 있다는 거고 그 가능성은 저는 충분히 입증이 됐다고 생각합니다.

[앵커]

이런 물리적인 위협뿐만 아니라 인공지능이 사람 일자리를 대체할 거라는 그런 불안과 우려도 많습니다.

실제로 미국 기업들이 지난달에 해고했던 인력 중에서 한 4천 명 가까이가 AI 때문에 일자리를 잃었다는 뉴스도 나왔고요.

또 골드만삭스는 "생성형 AI가 세계적으로 3억 개의 일자리를 대체할 것이다." 이런 보고서를 내기도 했습니다.

여기에 대해서는 어떻게 생각하시는지요?

[답변]

장기적으로는 분명히 가능성이 아주 높은 시나리오인데요.

단 조심할 게 있는데 AI를 만드는 데 굉장히 큰 비용이 듭니다.

그러니까 기업 입장에서는 비용 편익을 분석해서 실제로 AI로 사람 일자리를 대체했을 때 이익이 될 때만 만들겠죠.

그러니까 상당히 시간이 걸리는 일이고.

또 한 가지는 삼성전자 최근 사태에서 알 수 있지만 AI를 활용했을 때 기업 비밀이 거기 들어간다든가, AI가 활용하는 데이터의 편향 문제, 이런 것들이 아직 해결이 안 되어 있기 때문에 사실은 일자리 대체의 효과들은 좀 점진적으로 나타날 거라고 생각합니다.

[앵커]

이 AI라는 것도 결국 공짜로 얻어지는 건 아니니까요.

[답변]

맞습니다.

[앵커]

영화를 보면 AI가 전쟁도 일으키고 사람도 해치고 그런 스토리들이 많이 있습니다만, 지금 당장은 AI도 결국 '사람 손'에 따라 작동되는 것 아니겠습니까?

[답변]

그렇죠.

[앵커]

그렇다면 결국 '나쁜 사람'이 '나쁜 의도'를 가지고 이걸 악용할 때 더 큰 문제가 발생할 수 있을 것 같아요.

[답변]

문제는 이제 그 부분은 가능성이 아니라 이미 현실화되고 있다는 겁니다.

왜냐하면 최근에 나오는 AI의 특징들은 인터페이스를 너무 잘 만들어서 그걸 잘 모르는 사람도 너무 손쉽게 사용할 수 있어요.

챗 GPT 아무나 쓸 수 있잖아요.

그걸 가지고 특히 정치적으로 이렇게 분리가 되어 있는, 상당히 적대적으로 집단이 형성되어 있는 상황에서 상대방이 하지도 않은 말을 딥페이크로 만들어서 챗 GPT를 사용해가지고 그걸 널리 퍼뜨린다, 이런 상황들이 현재 벌어지고 있고.

이런 상황은 최근에 열렸던 미국 상원 청문회에서도 다음 해 일어날 대선이라든가 이런 선거에 영향을 끼칠 가능성을 굉장히 주목하고 있습니다.

그래서 이런 부분들에 대해서는 사실은 굉장히 주의가 필요합니다.

[앵커]

우리도 내년에 총선이 있고 또 미국 대선도 있는데 아마 이 때 이런 것들이 좀 판가름이 될 것 같아요.

너무 부정적인 얘기만 한 것 같습니다.

사실 인공지능의 순기능도 분명히 있을 텐데요.

인류가 겪었던 큰 혁신들이 있지 않습니까.

예컨대 인터넷의 보급이라든가 스마트폰 개발, 또 더 거슬러 올라가면 전기·자동차의 등장. 이런 것들만큼이나 혹은 그 이상으로 AI가 어떤 인류에 큰 변혁을 가져올 거라고 보시는지요.

[답변]

저는 그렇게 생각합니다.

왜냐하면 이건 일반적으로 공유되는 생각인데요.

여태까지 기계는 인간의 육체 노동을 주로 대체했는데 AI는 인간의 지적인 능력들을 많이 도와주거나 대체할 수 있고.

중요한 건 AI가 되게 비인간적인 방식으로 그걸 수행할 수 있다는 겁니다.

그러니까 어마어마하게 많은 데이터를 어마어마하게 빨리 처리하는 능력, 그래서 인간과 협업이 적절하게 이루어질 때 이것이 인류에게 끼칠 잠재적인 혜택은 어마무시하다고 생각할 수 있습니다.

[앵커]

그렇다면 AI의 이런 순기능은 강화하고 또 역기능은 좀 통제하기 위해서 지금 당장 인류가 이행해야 할 숙제는 어떤 것들이 있을까요.

[답변]

일단 AI가 현재 우리가 원하는 일은 정확하게 수행하고 우리가 원하지 않은 일들은 일종의 부작용으로서 예상하지 못한 효과로 그런 일들을 안 하는 그런 AI를 만드는 게 굉장히 중요한데.

이걸 이제 신뢰 가능한 AI라고 하거든요.

Trustworthy AI.

그걸 만들기 위해서는 기술적으로도 당연히 많은 노력을 기울여야겠지만 제도적으로나 아니면 사회·문화적으로 그런 것들이 잘 작동할 수 있는 어떤 환경들을 만들어줘야 되고.

그런 면에서 국내외적으로 여러 가지 협력들이 필요한 상황입니다.

[앵커]

몸 담고 계신 유네스코 세계과학기술윤리위원회에서는 어떤 작업들을 하고 계신지요.

[답변]

일단 유네스코가 2021년에 이런 문제들에 대응하기 위해서 AI를 만들 때 어떤 윤리 원칙들을 준수해야 되는가를 굉장히 자세하게 권고로, 회원국 만장일치로 통과를 했는데, 그걸 만들 때 COMEST(세계과학기술윤리위원회)가 되게 중요한 역할을 했고요.

COMEST, 세계과학기술윤리위원회는 그 외에도 첨단 과학기술이 제기하는 다양한 어떤 윤리적 쟁점, 예를 들어서 최근에는 기후 위기를 기술 공학적 방법으로 해결하려고 노력할 때 어떤 문제가 있나, 윤리적으로나. 그런 문제들에 대해서 고민을 하고 있습니다.

[앵커]

알겠습니다.

시간 관계상 오늘은 여기까지 듣도록 하겠습니다.

교수님 나와주셔서 고맙습니다.

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • AI는 ‘청사진’이 될까 ‘흑역사’가 될까?…이상욱 유네스코 세계과학윤리위원회 부위원장 [뉴스를 만나다]
    • 입력 2023-06-04 21:19:08
    • 수정2023-06-04 22:08:20
    뉴스 9
[앵커]

챗 GPT가 촉발시킨 인공지능 열풍이 거셉니다.

커다란 변화가 닥친 것은 분명해 보이는데 이것이 장밋빛 청사진일지 아니면 또 하나의 흑역사를 쓰게 되는 건 아닐지 전망은 좀 엇갈립니다.

'뉴스를 만나다' 오늘은 과학과 철학 두 분야를 다 연구하고 현재 유네스코 세계과학기술윤리위원회 부위원장을 맡고 계신 이상욱 한양대 교수를 모셨습니다.

어서 오십시오.

(예, 안녕하세요.)

처음에는 그저 신기하기만 하다가 갈수록 우려와 두려움의 목소리도 조금씩 나오는 것 같습니다.

먼저 말씀을 여쭙기 전에 최근에 뉴스가 됐던 인공지능의 인류 위협 사례들을 몇 가지 좀 살펴보겠습니다.

얼마 전에 미국 국방부 청사에서 폭발이 일어났다며 사진까지 인터넷으로 퍼졌는데 이게 AI가 만든 가짜 뉴스였습니다.

증시가 출렁이는 등 일대 혼란을 야기했었죠.

또 최근 벨기에에서는 한 남성이 목숨을 끊었는데 AI와의 대화 과정에서 부정적인 영향을 받았다는 분석이 있습니다.

이 AI가 극단적인 선택을 부추긴 게 아니냐 하는 논란이 일었습니다.

교수님, 이미 오래전부터 공상과학 영화라든가 소설을 보면 인공지능의 인간 위협 이걸 많이 상상을 해 왔는데, 그런 상상이 이제 현실화되는 초입이라고 보면 될까요?

[답변]

예, 불행히도 좀 그런 것 같습니다.

특히나 염려스러운 게 AI 기술의 현재 상태는 공상과학 영화 수준이 아니거든요.

그럼에도 불구하고 파급 효과 면에서 이미 우리는 초입에 왔다고 보는 게 맞는 것 같습니다.

[앵커]

실제로 이런 사례들이 나타났으니까요.

지난주에는 AI 분야에 종사하는 과학자, 경영자 350여 명이 AI의 위험성을 핵전쟁 수준으로 봐야 한다 이런 성명을 냈습니다.

또 심지어는 구글에서 인공지능 개발에 참여했던 제프리 힌튼 박사가 "후회한다. 킬러 로봇이 나올지도 모른다" 이런 얘기를 하기도 했고요.

이런 우려에 대해서 기본적으로 같은 생각을 갖고 계신지요?

[답변]

예, 메시지는 굉장히 공감하는데 약간 조심해야 될 게 킬러 로봇이라는 건 원래 자율형 살상 무기를 뜻하는 전문 용어인데요.

힌튼 박사님이 그 말씀을 하실 때는 꼭 그 전쟁 상황과 같은 극단적 상황이 아니라 우리가 통제 불가능하게 인공지능이 활용될 때는 사회 전반적으로 거의 킬러 로봇, 아까 그 벨기에 사태(자살 유발 사건)처럼 그런 일들이 벌어질 수 있다는 거고 그 가능성은 저는 충분히 입증이 됐다고 생각합니다.

[앵커]

이런 물리적인 위협뿐만 아니라 인공지능이 사람 일자리를 대체할 거라는 그런 불안과 우려도 많습니다.

실제로 미국 기업들이 지난달에 해고했던 인력 중에서 한 4천 명 가까이가 AI 때문에 일자리를 잃었다는 뉴스도 나왔고요.

또 골드만삭스는 "생성형 AI가 세계적으로 3억 개의 일자리를 대체할 것이다." 이런 보고서를 내기도 했습니다.

여기에 대해서는 어떻게 생각하시는지요?

[답변]

장기적으로는 분명히 가능성이 아주 높은 시나리오인데요.

단 조심할 게 있는데 AI를 만드는 데 굉장히 큰 비용이 듭니다.

그러니까 기업 입장에서는 비용 편익을 분석해서 실제로 AI로 사람 일자리를 대체했을 때 이익이 될 때만 만들겠죠.

그러니까 상당히 시간이 걸리는 일이고.

또 한 가지는 삼성전자 최근 사태에서 알 수 있지만 AI를 활용했을 때 기업 비밀이 거기 들어간다든가, AI가 활용하는 데이터의 편향 문제, 이런 것들이 아직 해결이 안 되어 있기 때문에 사실은 일자리 대체의 효과들은 좀 점진적으로 나타날 거라고 생각합니다.

[앵커]

이 AI라는 것도 결국 공짜로 얻어지는 건 아니니까요.

[답변]

맞습니다.

[앵커]

영화를 보면 AI가 전쟁도 일으키고 사람도 해치고 그런 스토리들이 많이 있습니다만, 지금 당장은 AI도 결국 '사람 손'에 따라 작동되는 것 아니겠습니까?

[답변]

그렇죠.

[앵커]

그렇다면 결국 '나쁜 사람'이 '나쁜 의도'를 가지고 이걸 악용할 때 더 큰 문제가 발생할 수 있을 것 같아요.

[답변]

문제는 이제 그 부분은 가능성이 아니라 이미 현실화되고 있다는 겁니다.

왜냐하면 최근에 나오는 AI의 특징들은 인터페이스를 너무 잘 만들어서 그걸 잘 모르는 사람도 너무 손쉽게 사용할 수 있어요.

챗 GPT 아무나 쓸 수 있잖아요.

그걸 가지고 특히 정치적으로 이렇게 분리가 되어 있는, 상당히 적대적으로 집단이 형성되어 있는 상황에서 상대방이 하지도 않은 말을 딥페이크로 만들어서 챗 GPT를 사용해가지고 그걸 널리 퍼뜨린다, 이런 상황들이 현재 벌어지고 있고.

이런 상황은 최근에 열렸던 미국 상원 청문회에서도 다음 해 일어날 대선이라든가 이런 선거에 영향을 끼칠 가능성을 굉장히 주목하고 있습니다.

그래서 이런 부분들에 대해서는 사실은 굉장히 주의가 필요합니다.

[앵커]

우리도 내년에 총선이 있고 또 미국 대선도 있는데 아마 이 때 이런 것들이 좀 판가름이 될 것 같아요.

너무 부정적인 얘기만 한 것 같습니다.

사실 인공지능의 순기능도 분명히 있을 텐데요.

인류가 겪었던 큰 혁신들이 있지 않습니까.

예컨대 인터넷의 보급이라든가 스마트폰 개발, 또 더 거슬러 올라가면 전기·자동차의 등장. 이런 것들만큼이나 혹은 그 이상으로 AI가 어떤 인류에 큰 변혁을 가져올 거라고 보시는지요.

[답변]

저는 그렇게 생각합니다.

왜냐하면 이건 일반적으로 공유되는 생각인데요.

여태까지 기계는 인간의 육체 노동을 주로 대체했는데 AI는 인간의 지적인 능력들을 많이 도와주거나 대체할 수 있고.

중요한 건 AI가 되게 비인간적인 방식으로 그걸 수행할 수 있다는 겁니다.

그러니까 어마어마하게 많은 데이터를 어마어마하게 빨리 처리하는 능력, 그래서 인간과 협업이 적절하게 이루어질 때 이것이 인류에게 끼칠 잠재적인 혜택은 어마무시하다고 생각할 수 있습니다.

[앵커]

그렇다면 AI의 이런 순기능은 강화하고 또 역기능은 좀 통제하기 위해서 지금 당장 인류가 이행해야 할 숙제는 어떤 것들이 있을까요.

[답변]

일단 AI가 현재 우리가 원하는 일은 정확하게 수행하고 우리가 원하지 않은 일들은 일종의 부작용으로서 예상하지 못한 효과로 그런 일들을 안 하는 그런 AI를 만드는 게 굉장히 중요한데.

이걸 이제 신뢰 가능한 AI라고 하거든요.

Trustworthy AI.

그걸 만들기 위해서는 기술적으로도 당연히 많은 노력을 기울여야겠지만 제도적으로나 아니면 사회·문화적으로 그런 것들이 잘 작동할 수 있는 어떤 환경들을 만들어줘야 되고.

그런 면에서 국내외적으로 여러 가지 협력들이 필요한 상황입니다.

[앵커]

몸 담고 계신 유네스코 세계과학기술윤리위원회에서는 어떤 작업들을 하고 계신지요.

[답변]

일단 유네스코가 2021년에 이런 문제들에 대응하기 위해서 AI를 만들 때 어떤 윤리 원칙들을 준수해야 되는가를 굉장히 자세하게 권고로, 회원국 만장일치로 통과를 했는데, 그걸 만들 때 COMEST(세계과학기술윤리위원회)가 되게 중요한 역할을 했고요.

COMEST, 세계과학기술윤리위원회는 그 외에도 첨단 과학기술이 제기하는 다양한 어떤 윤리적 쟁점, 예를 들어서 최근에는 기후 위기를 기술 공학적 방법으로 해결하려고 노력할 때 어떤 문제가 있나, 윤리적으로나. 그런 문제들에 대해서 고민을 하고 있습니다.

[앵커]

알겠습니다.

시간 관계상 오늘은 여기까지 듣도록 하겠습니다.

교수님 나와주셔서 고맙습니다.

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료

많이 본 뉴스