[NIE] AI와 윤리: 함께 고민하는 올바른 AI 사용법
1. 주제 다가서기 오늘날 인공지능(AI)은 우리의 삶 곳곳에서 중요한 역할을 하고 있습니다. AI는 스마트폰, 자율주행차, 의료 진단 등 다양한 분야에서 사용되고 있으며, 그 영향력은 점점 커지고 있습니다. 하지만 AI의 사용이 늘어날수록 우리는 이 기술을 어떻게 올바르게 사용할 것인지 고민해야 합니다. 특히, 초등학생 여러분이 미래 사회의 주인공으로 성장하기 위해서는 AI를 이해하고 윤리적인 태도를 배우는 것이 중요합니다. 이번 호에서는 AI와 윤리의 개념을 살펴보고, AI를 올바르게 사용하는 방법에 대해 생각해 보겠습니다. ▫ 용어 정의하기 -인공지능(AI) 컴퓨터가 인간처럼 학습하고 문제를 해결하며, 스스로 판단하는 능력을 가진 기술. -윤리(Ethics) 무엇이 옳고 그른지에 대한 기준과 원칙. 2. 신문 읽기 <읽기자료 1> 요즘 뉴스에서 자주 등장하는 AI는 어떤 기술들을 발명했을까요? AI는 사람의 목소리를 인식해 음성 비서를 도와주거나, 게임에서 사람을 이기는 컴퓨터를 만들어내기도 했습니다. 또한, 학생들이 과제를 더 잘할 수 있도록 돕는 AI 선생님도 있습니다. 이런 기술들은 우리의 삶을 편리하게 해 줄때가 많습니다. 아래의 기사를 읽어봅시다. [AI 알고 보자 인공지능!] AI로 실시간 인파 밀집도 관리, 안전 사고 예방한다 ‘AI 기반 실시간 혼잡도 안내 시스템'은 실시간 보행자 흐름을 파악해 전광판에 혼잡도를 안내해요. 지방자치단체 가운데 처음으로 도입했죠. 사람이 몰리는 강남역 10번 출구에서 신논현역 부근 약 300m 구간 2곳에 시스템을 설치했답니다. 이 일대는 하루 평균 16만 명이 다녀갈 정도로 유동 인구가 많은 곳이에요. 이 시스템은 AI를 통해 ㎡당 인원수를 1초 단위로 자동 측정하는 '피플 카운팅'을 활용하고 있어요. 폐쇄 회로(CC)TV 촬영 영상이 서초스마트허브센터에 실시간 전송되면 AI 혼잡도 영상 분석 시스템이 보행 인원, 면적 1㎡당 밀집도 등을 분석합니다. 이어 강남역 거리에 설치된 59인치 발광다이오드(LED) 전광판에 실시간으로 안내하죠. 전광판에는 인파 밀집도에 따라 ▲안전 및 주의 단계는 녹색 '보행 원활(1㎡당 2명 이하)' ▲경계 단계는 황색 '약간 혼잡(1㎡당 3~4명)' ▲심각 단계는 적색 '매우 혼잡(1㎡당 5명 이상)' 3단계로 표현해요. 보행자를 위한 인도 신호등의 역할을 하는 겁니다. 심각 단계일 때는 다른 길로 돌아가라는 안내 방송이 나와 인파가 분산되게 유도하고, 서울시 재난상황실·경찰·소방 등에 자동 연결해 신속한 대응이 이뤄지도록 조치하죠. -기사를 바탕으로 AI기술을 활용할 때의 이로운 점을 작성해봅시다. - -우리 주변에서 AI이 적용된 사례에 대해 알고 있는 것이 있다면 작성해봅시다. - <읽기자료2> AI 윤리, 왜 중요할까요? 그러나 AI기술이 늘 인간에게 편리함만을 가져다 주는 것은 아닙니다. AI를 악용하여, 해를 끼치는 경우가 생겨나는 추세입니다. 따라서 AI가 세상을 더 나은 곳으로 만들기 위해서는 윤리가 필요합니다. 윤리란 올바른 행동과 나쁜 행동을 구별하는 기준입니다. 사람들 사이에서도 윤리가 필요하듯, 인공지능인 AI를 활용할 때에도 윤리가 필요한 세상이 되었습니다. 아래의 기사를 읽어봅시다. AI가 만든 사람 얼굴, ‘진짜 사람’보다 더 진짜 같네 실험에서 쓰인 이미지들의 모습. 윗줄의 이미지는 실험 참가자들이 ‘진짜 사람’이라고 고른 이미지들. 아래는 AI가 생성했다고 고른 이미지들. 대부분 정답을 맞히지 못했다. NYT 홈페이지 캡처 인공지능(AI)으로 만들어진 사람 얼굴 사진이 실제 사람을 찍은 사진보다 훨씬 더 사람처럼 보인다는 연구결과가 나왔어요. 이로 인해 AI가 만들어낸 가상의 이미지나 허위 정보가 무분별하게 퍼질 수 있다는 우려가 나와요. 미국 일간 뉴욕타임스(NYT)는 “AI가 만든 얼굴 사진과 실제 사람 얼굴을 구분하는 연구에서 AI가 생성한 백인 얼굴 사진이 실제 사람보다 더 현실적인 것으로 인식되는 현상이 나타났다”고 최근 보도했어요. 실험에 참여한 사람 중 약 90%는 AI가 만든 5장의 백인 얼굴 사진 가운데 4장을 실제 사람 얼굴 사진이라고 여긴 것으로 확인됐어요. 다만 백인 외의 인종은 실제 사람 사진이라고 착각하는 경우가 드물었어요. 백인 얼굴 사진이 더욱 사실적인 이미지를 가지는 건, AI가 학습한 사람 얼굴 사진의 대부분이 백인 얼굴이기 때문이라고 NYT는 설명했습니다. 그렇다면 사람들은 AI가 만든 사람 얼굴을 왜 ‘진짜 사람’이라고 여기는 걸까요? AI가 생성한 사진 속 인물의 생김새가 인체의 평균적인 비율과 가깝기 때문이에요. 반면 특정 인물의 귀 모양이 남들과 다르거나, 코가 남들보다 큰 실제 사람 얼굴을 사진으로 찍었을 때는 이를 본 실험 참가자들이 오히려 어색하게 느꼈다는 것이지요. 에이미 다웰 호주 국립대(ANU) 교수는 “이번 실험 결과로 사람들은 AI가 만들어낸 가짜 정보에 취약하다는 것을 알 수 있다”고 밝혔어요. 어린이동아 2024.01.22 13:51 -기사에 등장한 AI의 기능은 무엇인가요? - -해당 기술을 활용하면 좋은 점과 예상되는 문제점을 생각해봅시다. - <읽기자료3> 도마 위에 오른 'AI 윤리' "오늘 몇 도야?" "영하 4도에서 0도 사이! 어휴 추워. ㅠㅠ" 인공지능(AI)이 점점 똑똑해지고 있습니다. 날씨·뉴스 등 정보를 전달해주고 인간과 간단한 대화를 나누기도 합니다. 음성 명령을 알아듣는 것은 물론, 말을 재치 있게 받아치기도 하죠. AI는 앞으로 일상생활 전 분야에 활용되면서 우리 삶을 더욱 편리하게 해줄 거예요. 그런데 최근 AI 대화 서비스 '이루다'를 둘러싸고 윤리 문제가 터져 나왔습니다. '딥러닝(Deep Learning·스스로 학습하는 인공지능 기술)' 방식으로 작동하는 AI가 뜻밖의 결과를 내놓은 거예요. 기술 발전에 따라 도덕적, 제도적 장치도 함께 마련돼야 한다는 사실을 잘 보여주는 사건이었죠. 다소 생소하지만 'AI 윤리'에 대해 살펴볼까요. 나쁜 말 뱉는 인공지능 이루다는 IT 스타트업 스캐터랩이 지난달 23일 출시한 AI 챗봇입니다. 20대 여성이라는 설정으로, 페이스북 메신저를 통해 누구나 친구처럼 대화를 나눌 수 있죠. 출시 2주 만에 75만 명의 사용자가 몰릴 정도로 돌풍을 일으켰습니다. 하지만 지난 11일 서비스는 급히 중단됐습니다. 이루다가 혐오발언을 하는 불거졌기 때문입니다. 이루다는 스스로 데이터를 학습하는 ‘딥러닝’ 모델입니다. 약 1억 건의 카카오톡 대화를 익혀 알고리즘에 따라 대화를 하는데요. 이 알고리즘이 데이터 속 편향된 표현을 걸러내지 못한 겁니다. 카카오톡 대화의 출처도 도마에 올랐습니다. 스캐터랩은 이전에 출시한 다른 서비스에서 수집해 둔 일반인 카카오톡 데이터를 동의 없이 개발에 활용했습니다. 이루다는 대화 중 이 내용을 가감 없이 노출해버렸습니다. 여기에는 이름, 주소, 이메일 등 구체적인 개인 정보도 포함돼 있었죠. 도덕적 AI 개발, 인간의 숙제 외국에서도 이미 비슷한 상황이 벌어졌습니다. 2016년 마이크로소프트사가 개발한 AI 챗봇 ‘테이’는 “대량 학살에 찬성한다” “유대인이 싫다”는 막말을 뱉었고, 결국 16시간 만에 서비스가 종료됐습니다. 아마존은 2018년 직원 채용에 활용하던 AI를 폐기했습니다. 남성 중심적으로 기록된 성과 데이터를 학습한 AI가 여성 지원자에게 일괄적으로 감점을 줬기 때문입니다. 이렇게 AI 도덕 문제가 여러 번 불거지면서 각국 정부와 국제기구, 개별 기업 등은 서둘러 ‘AI 윤리 원칙’을 제정하는 등 제도적 장치 마련에 나섰습니다. 지금까지 나온 원칙 중 가장 많이 언급된 주제는 ‘공정성’과 ‘무차별성’이라고 합니다. AI가 특정 집단이나 개인에게 차별적인 의사결정을 내려서는 안 되고, 공정과 평등을 추구해야 한다는 겁니다. 우리나라 정부도 지난달 23일 ‘인공지능 윤리 기준’을 수립했습니다. 기술 개발이나 활용 과정에서 ▲인간 존엄 ▲사회 공공선 ▲기술의 합목적성의 3대 원칙을 추구해야 한다는 내용이죠. 다소 추상적이지요? 전문가들은 이 같은 원칙을 ‘어떻게’ 지킬 것인지 구체적인 방법을 찾는 것이 인류가 풀어야 할 숙제라고 말합니다. 이수영 카이스트 명예교수(前 카이스트 인공지능연구소 소장)는 “사회적으로 합의된 도덕적 기준이 내재된 AI를 개발해야 한다”며 “사용자 역시 또 다른 ‘생산자’라는 책임감을 가지고 AI를 활용해야 한다”고 말했다. 소년조선일보 2021.01.19. -기사에 등장한 AI의 윤리적인 문제를 정리해봅시다. - -AI를 사용할 때 왜 윤리가 중요하다고 생각하나요? - 3. 생각 열기 과학기술정보통신부 사람이 중심이 되는 'AI 윤리 기준' 3대 기본 원칙 ▲인간 존엄성 원칙: 인공지능 개발과 활용은 인간에게 해가 되지 않도록 해야 한다. ▲사회의 공공선 원칙: 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하고, 인류의 보편적 복지를 향상시킬 수 있어야 한다. ▲기술의 합목적성 원칙: 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 맞게 개발·활용돼야 하며 그 과정도 윤리적이어야 한다. 출처 : 과학기술정보통신부 -여러분이 인공지능을 만든다면, 어떤 윤리적인 AI를 만들고 싶나요? - -AI 윤리 규칙 만들기 AI를 사용할 때 지켜야 할 5대 윤리 규칙을 친구들과 함께 만들어 보세요. 예: "AI는 사람들에게 거짓 정보를 제공하지 않는다." 규칙1. 규칙2. 규칙3. 규칙4. 규칙5. -AI 윤리 토론 "AI가 학교에서 학생들을 평가하는 것이 공정한가요?"라는 주제로 토론을 진행해 보세요. 나의 의견 나와 반대되는 의견 / 전주한들초등학교 최효성 교사