이전기사 다음기사
UPDATE 2024-11-29 00:45 (Fri)
로그인
phone_iphone 모바일 웹
위로가기 버튼
chevron_right 교육 chevron_right NIE
오피니언

[NIE] 인간을 닮은 인공지능 개발, ‘속도’보다는 ‘성찰’이 먼저다

image
Human like robot talking to artificial intelligence. 출처=클립아트코리아

1. 주제 다가서기

어렸을 때 「알라딘」을 읽으며 유머가 넘치고 쾌활하며 상냥하고 듬직하며, 내가 찾을 때마다 나타나 나의 소원을 들어주는 램프의 요정 지니 같은 친구가 있으면 좋겠다고 생각한 적이 있다. 「어린왕자」를 읽으면서는 지혜롭고 생각이 깊으며, 세심하고 따뜻한 여우 같은 친구가 내게도 있다면 고민을 슬기롭게 극복하고 어려운 결정 앞에서 현명한 선택을 할 수 있을 거라는 생각을 해 본 적이 있다. 

능력과 판단력이 미약하며, 게으르고 겁이 많고 쉽게 우울해지고 외로움을 많이 타는 지극히 평범하고 나약한 개인에게 도움이 필요할 때마다 나타나는 끈끈한 존재가 있다면 불안한 삶을 지탱할 용기가 샘솟고 이뤄낼 수 있는 성과도 극대화될 것이다.

든든하며 영원히 내 곁에 있어 줄 동반자를 늘 꿈꿔 온 인간은 인간을 닮았으면서도 전지전능하고 강력한 인공지능을 개발하기 위해 폭주하고 있다. 이왕이면 인간과 눈, 코, 입이 닮았으면, 표정도 자연스러웠으면, 목소리도 따뜻하고 온정적이었으면, 감정을 지녔으면, 나의 말에 재미있고 적극적으로 대답했으면, 보고서를 대신 써 줬으면, 노래를 지어 주고 그림도 그려줬으면, 다리가 불편한 나를 위해 대신 움직여 줬으면, 외로운 나를 위해 친구가, 애인이 되어 주었으면... 나의 결핍과 외로움을 충족해 줄 인간을 닮은 로봇을 개발하기 위해 인류는 지금껏 개발해 온 기술을 총동원하여 하루가 다르게 발전한 인공지능 모델을 출시하고 있다. 

일각에서는 인공지능이 인간과 같은 감정과 창조력을 지니는 것은 불가능하다, 인공지능이 갖게 된 능력은 인간이 투입한 엄청난 양의 데이터를 통해 산출한 평균적인, 최선의 결론에 해당할 뿐이다, 감정을 느끼는 인공지능 개발은 기술적인 성과는 있겠지만 그런 기계를 개발할 필요가 있는지 모르겠다 등 회의적인 반응을 보이기도 한다. 한편 우리나라의 인공지능 기술이 미국, 일본 등 다른 나라에 뒤처져 있는 상황에서 인공지능에 대한 강력한 규제는 인공지능 강국으로 발전하는 데 해가 될 수 있다고 우려를 표하는 입장도 있다. 

그러나 분명한 것은 현재 전 세계적으로 경쟁적으로 치닿고 있는 인공지능의 발전 속도가 너무 빨라 성찰과 규제가 이를 따라가지 못하는 실정이라는 것이다. 

인간이 만든 인공지능의 궁극의 모습은 과연 무엇일까? 갈라테이아*일까, 프랑켄슈타인*일까? 로봇과 공존하는 미래 사회는 유토피아일까? 디스토피아일까? 폭주하는 기관차 위에 올라탄 인류는 잠시 숨을 고르고 이 질문에 대해서 깊이 생각해 볼 필요가 있다. 

*갈라테이아: 리스 신화에 나오는 조각가 피그말리온이 만든 여자 조각상. 피그말리온은 이 조각상을 사랑하게 되었고, 그가 간절히 기도하자 아프로디테가 조각상에 생명을 불어넣어 주었다.(출처: 표준국어대사전)

*프랑켄슈타인: 영국의 여성 작가 셸리가 지은 괴기(怪奇) 소설. 의학도인 프랑켄슈타인이 시체를 이용하여 만든 초인적 힘을 가진 괴물이 광폭하여 나쁜 짓을 자행하다가 프랑켄슈타인마저 살해하고는 북극해로 모습을 감춘다는 내용이다. 1818년에 발표하였다.(출처: 표준국어대사전)

 

2. 주제 관련 읽기 자료

[자료 1] 로봇에 피부 이식했더니 ‘싱긋’ 웃었다…“소름 끼쳐” 말 나온 모습(조선일보 2024. 6. 30)

[자료 2] 사람처럼 ‘개성’ 지닌 ‘페르소나 AI’ 몰려온다(한겨레 2024. 7. 8.)

[자료 3] 영화 ‘허’처럼 사람 같은 AI… “감정적 의존하게 돼”(조선일보 2024. 8. 10)

 

3. 동기유발 질문

• 인공지능(artificial intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현하려는 컴퓨터 시스템을 말한다. 우리의 일상생활에서 인공지능이 편리하게 활용되고 있는 사례를 찾아 이야기해 보자.

-

 

4. 기사 읽고 활동하기

<활동 1>

로봇에 피부 이식했더니 ‘싱긋’ 웃었다…“소름 끼쳐” 말 나온 모습

일본 과학자들이 로봇에 살아 있는 세포로 만든 피부 조직을 이식해 로봇이 얼굴 표정을 짓는 기술을 개발했다.

28일(현지시각) 미국 CNN 방송, 영국 BBC방송 등에 따르면 다케우지 쇼지 도쿄대학 교수 연구팀은 지난 25일 저명 학술지인 셀(Cell)에서 발간하는 자매 저널인 ‘셀 리포트 피지컬 사이언스’를 통해 인공 피부를 부착한 로봇에 대한 논문을 발표했다.

피부를 이식한 로봇의 프로토타입도 공개됐다. 아직은 인간의 얼굴보다는 분홍빛 젤리에 가까운 모습이지만, 피부 조직이 움직이면서 마치 미소를 짓는 듯한 모습이 구현된다. 입가엔 보조개가 생기기도 했다.

연구팀은 3D 프린팅 기술과 인간의 피부 세포 배양 등을 통해 만든 살아 있는 세포를 이용해 인공 피부를 만들었다. 이 인공 피부는 인간의 진짜 피부처럼 부드러울 뿐만 아니라 상처를 입어도 스스로 재생할 수 있는 능력을 갖췄다.

과거에도 인공 피부를 로봇에 이식하려는 시도는 있었으나 로봇이 움직이면 피부가 쉽게 손상됐다.

이에 연구팀은 사람의 피부가 콜라겐과 엘라스틴으로 이뤄진 인대로 묶인 것에서 착안해 로봇에 작은 구멍을 뚫어 콜라겐이 함유된 젤로 구멍을 덮은 뒤 인공 피부를 부착했다.

연구를 이끈 다케우치 교수는 “인간의 피부-인대 구조에서 영감을 얻어 고체 물질에 특별히 제작된 V자형 천공을 만들어 로봇에 인공피부를 부착했다”며 “인공 피부의 유연성과 강력한 접착 방식으로 피부가 찢어지거나 벗겨지지 않고 로봇의 기계적 구성 요소와 함께 움직일 수 있다”고 설명했다.

연구팀은 해당 기술이 일상생활에 적용되려면 앞으로 수년간 더 많은 테스트가 필요할 것으로 예상하는 한편, 이번 연구가 피부 노화, 성형수술, 미용 분야에서 의사들이 임상 시험 등을 할 때 도움이 될 것으로 기대하고 있다.

다케우치 교수는 “남은 과제는 로봇 내에 정교한 근육 등을 통합해 인간과 같은 표정을 만드는 것”이라고 했다.

그는 “현실적인 얼굴 표정은 로봇이 인간과 더 자연스럽고 효과적으로 소통하고 상호 작용하는 능력을 향상시킨다”며 “이는 공감과 감정적 연결이 환자 치료에 영향을 미칠 수 있는 의료 분야에서 특히 중요하다”고 했다.

소식을 접한 해외 네티즌들 사이에서는 인간의 모습을 닮은 휴머노이드 로봇의 탄생을 우려한듯 “소름끼친다” “불쾌한 골짜기*를 본 듯하다. 악몽 같다” “인간이 만들어낸 최고의 공포영화” “과학자들은 늘 윤리적인 문제를 생각해야 할 것” 등의 의견이 나왔다. 다만 일부 네티즌들은 “기술의 발전이 기대된다” “징그럽지만 한편으로는 놀랍기도 하다” 등 긍정적인 반응도 냈다.

(출처: 조선일보 2024. 6. 30)

1-1. 인간의 피부와 조직과 촉감이 같은 피부를 가지고 있으며 인간과 거의 같은 얼굴 표정을 짓는 로봇의 장점과 활용도는 무엇일까? 

-

<보기>

‘*불쾌한 골짜기’는 1970년 일본의 로봇 공학자 모리 마사히로가 소개한 이론으로, 인간이 로봇을 포함해 인간이 아닌 존재에 대해 인간과의 유사성이 높을수록 호감을 많이 느끼다가 일정 수준에 다다르면 오히려 불쾌감을 느끼게 된다는 이론이다. ‘불쾌한’이라는 말은 1906년 독일의 정신과 의사 에른스트 옌치가 먼저 사용하였다. 

 모리 마사히로에 의하면 인간은 로봇이 인간과 비슷한 모양을 하고 있을수록 호감을 느끼는데 그 이유는 인간이 아닌 존재로부터 인간성을 발견하기 때문이라고 한다. 하지만 그 정도가 특정 수준에 다다를 경우 갑자기 거부감을 느끼는데 이는 오히려 인간과 다른 불완전성이 부각되어 이상함을 감지하게 되기 때문이라고 한다. 그러나 그 수준을 넘어서 인간과 구별하기 어려울 만큼 완벽하게 닮았다면 호감도는 다시 상승하게 된다고 한다. 호감도가 급하강했다가 급상승한 구간이 깊은 골짜기 모양으로 하고 있다고 하여 ‘불쾌한 골짜기’ 이론으로 불리게 되었다. 

                            -‘[네이버 지식백과] 불쾌한 골짜기’ 개념 설명을 재구성함.

1-2. 위의 기사 속에 등장하는 ‘불쾌한 골짜기’의 개념을 <보기>를 통해 확인하고, 여러분이 책이나 영상 등의 매체에서 ‘불쾌한 골짜기’ 이론과 관련한 경험을 했던 사례가 있는지 이야기해 보자. 

-

1-3. 인간이 사람의 모습과 완벽하게 닮은 로봇을 좋아하는 이유가 무엇일지 생각해 보자.

-

<활동 2-1>

사람처럼 ‘개성’ 지닌 ‘페르소나 AI’ 몰려온다

인공지능 서비스가 챗지피티(GPT)처럼 사람과 비슷한 방식으로 소통하고 흉내 내는 수준을 넘어, 사람 같은 개성을 지니고 파트너 역할을 맡는 캐릭터형 서비스로 진화하고 있다. 인공지능 서비스가 의인화 단계를 넘어 사람처럼 고유한 성격과 동일성을 유지하게 되면 어떤 일이 생겨날까?

캐릭터에이아이(Character.AI)는 구글에서 딥러닝을 개발하던 노엄 샤지어 등이 2021년 설립한 스타트업으로, 인공지능 챗봇을 이용해 가상인물(페르소나)을 구현하고 해당 캐릭터와 대화할 수 있는 소셜 플랫폼이다. 

캐릭터에이아이에서는 누구나 공상이나 실제 인물을 기반으로 챗봇을 만들 수 있어, 수백만 개의 인공지능 페르소나가 활동하고 있다. 아인슈타인, 마리 퀴리, 비욘세, 일론 머스크 등 실존 인물은 물론 해리포터, 슈퍼마리오, 제우스 등 상상 속 페르소나도 있고 사용자는 아바타를 생성하듯 자유롭게 자신만의 페르소나를 만들 수 있다. 아인슈타인 챗봇은 과학에 대해, 해리포터는 마법 세계에 대해 말하고 가르쳐 주는 역할을 부여할 수 있다. 지난달엔 페르소나와의 음성 대화 기능도 추가됐는데, 영어·스페인어·중국어·러시아어·한국어·일본어 등 주요 언어를 지원한다.

페르소나 챗봇은 챗지피티·코파일럿 등과 함께 인공지능 킬러서비스로 주목받으며 빅테크 간 경쟁도 치열해지고 있다.

<중략>

이미 모델·가수 역할을 하는 가상 인간이 활동 중이고 게임·소셜미디어에서 아바타가 널리 쓰이고 있지만, 최근 등장한 인공지능 페르소나는 기존의 아바타·가상 인간과 구별된다. 가상 인간은 홍보·도우미 등 특정 용도로 제작·운영되고 있으며, 아바타는 이용자들이 다양하게 만들고 꾸미지만 활용 방식과 영역이 제한돼 있다. 페르소나 챗봇은 생성 인공지능 모델에 기반해 사람처럼 고유한 성격을 갖고 학습하고 성장할 뿐 아니라 지속성과 동일성을 지닌다는 게 차이점이다. 사람들은 기계보다 실제 사람에게 더 편안함을 느끼고 유명인에게 신뢰와 애착을 갖는다. 셰익스피어 챗봇이 글쓰기를 지도하고, 달리기할 때 이봉주 챗봇이, 요리할 때 백종원 챗봇이 도움말을 준다면 인공지능 서비스 몰입과 만족도는 높아진다.

캐릭터에이아이의 수백만 개 페르소나 중에서도 특히 인기 높은 챗봇은 ‘심리학자’ ‘테라피스트’ 캐릭터로, 1억 건 넘는 심리 상담을 진행했다. 비비시(BBC)는 지난 1월 “캐릭터에이아이의 주 사용자 집단은 10·20대인데, 심야시간대나 친구·상담사에게 얘기하기 어려운 경우에도 챗봇이 즉각적인 답변을 줘 인기가 높다”고 보도했다. 2013년 할리우드영화 ‘그녀’의 사만다를 모델로 한, 인공지능 가상 연인 서비스인 ‘레플리카(Replika)’ 앱은 이용자가 원하는 스타일로 인공지능 파트너를 만드는 유료 서비스다.

인공지능 페르소나는 기계와의 애착 관계 형성이라는 양면성을 지닌다. 뉴욕타임스 5월 기사에 따르면, 오픈에이아이·구글·앤트로픽 등 인공지능 챗봇 기업들은 사용자가 챗봇과 감정적 관계를 형성하는 것을 경계하며 감정적 애착이 생겨나지 않도록 업무 용도로 훈련시켰다. 그럼에도 오픈에이아이는 지난 5월13일 사람처럼 듣고 말하고 감정을 표현하는 지피티4옴니를 선보였다. 지피티4옴니는 ‘그녀’를 연상시키는 스칼렛 요한슨 목소리를 빼닮은 음성(스카이)을 사용했다가 비판과 요한슨의 항의를 받았다.

 인공지능 페르소나는 부작용도 많다. 잘못된 내용을 확신 있게 표현하는 거대언어모델의 ‘환각’ 문제가 여전하며, 실제 인물을 모방함에 따라 권리 침해 문제도 생겨나고 있다. 무엇보다 심각한 문제는 심리적으로 취약한 사람들에게 편의를 앞세워 가짜 친밀감과 지나친 애착을 형성하게 할 우려다. 진짜 사람과 사회에 기울여야 할 관심이 친절하고 매력적인 인공지능 파트너에게 주어진다면 개인과 사회의 감정 체계는 왜곡되고 인공지능에 조종당할 수 있다.

 (발췌: 한겨레 2024. 7. 8.)

2-1. 인공지능 페르소나의 기능이나 역할, 특성이 기존의 가상 인간이나 아바타와 구별되는 점은 무엇일까?

-

2-2. 인간이 인간보다는 인공지능 페르소나와 잦은 소통을 하고 인공지능 페르소나에 과도한 감정적 애착을 갖게 될 때 어떠한 문제점이 생길지 예측해 보자. 

-

<활동 3>

영화 ‘허’처럼 사람 같은 AI… “감정적 의존하게 돼”

챗GPT 개발사 오픈 AI는 생성형 인공지능(AI)이 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 위험이 있다고 우려했다. 9일 CNN에 따르면, 오픈 AI는 음성 지원이 가능한 새 AI 모델 ‘GPT-4o’(GPT-포오)와 관련해 내놓은 보고서에서 이처럼 지적했다.

GPT-4o는 오픈 AI가 지난 5월 공개한 최신 인공지능 모델이다 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다.

서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 2013년 개봉작 영화 ‘허’(Her) 속 AI가 현실이 됐다는 평가를 받으며 큰 주목을 받았다. GPT-4o에 사용된 AI 음성이 영화 ‘허’ 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란이 되기도 했다.

오픈AI는 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”라고 우려했다. 영화 속에서 AI와 사랑에 빠진 주인공 모습이 더는 영화 속 허구가 아닐 수 있다는 점을 지적한 것이다.

오픈 AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”라고 판단했다.

또한 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하면 사용자가 AI의 잘못된 정보조차 믿게 만들 수 있다고 지적했다. 오픈AI는 GPT-4o의 음성 모드 기능이 장기간에 걸쳐 사람들 간의 정상적인 사회적 상호작용 방식에도 영향을 미칠 수 있다고 평가했다.

 GPT-4o의 음성 모드는 AI의 음성 답변이 이뤄지는 도중 사용자가 언제든지 개입해 답변을 멈추고 사용자의 음성을 입력할 수 있게 설계됐는데 이 같은 기능 설계가 사람 간 상호작용 방식에 영향을 미칠 수 있다고 본 것이다.

오픈AI는 보고서에서 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다.

 (발췌: 조선일보 2024. 8. 10.)

3. 인간과 AI와의 대화 방식이 인간과 인간의 대화 방식과 다른 점은 무엇일까? 또한 인간과 AI와의 대화 방식을 인간과 인간의 대화에 적용할 경우 어떤 문제가 일어날 수 있을까?

-

/산서고 이혜영 교사

저작권자 © 전북일보 인터넷신문 무단전재 및 재배포 금지

#인공지능 #로봇 #AI
다른기사보기

개의 댓글

※ 아래 경우에는 고지 없이 삭제하겠습니다.

·음란 및 청소년 유해 정보 ·개인정보 ·명예훼손 소지가 있는 댓글 ·같은(또는 일부만 다르게 쓴) 글 2회 이상의 댓글 · 차별(비하)하는 단어를 사용하거나 내용의 댓글 ·기타 관련 법률 및 법령에 어긋나는 댓글

0 / 400
교육섹션