[NIE] 인공지능의 의인화, 기술과 윤리 무엇이 먼저일까?
1. 주제 다가서기 어렸을 때 「알라딘」을 읽으며 유머가 넘치고 쾌활하며 상냥하고 듬직하며, 내가 찾을 때마다 나타나 나의 소원을 들어주는 램프의 요정 지니 같은 친구가 있으면 좋겠다고 생각한 적이 있다. 「어린왕자」를 읽으면서는 지혜롭고 생각이 깊으며, 세심하고 따뜻한 여우 같은 친구가 내게도 있다면 고민을 슬기롭게 극복하고 어려운 결정 앞에서 현명한 선택을 할 수 있을 거라는 생각을 해 본 적이 있다. 능력과 판단력이 미약하며, 게으르고 겁이 많고 쉽게 우울해지고 외로움을 많이 타는 지극히 평범하고 나약한 개인에게 도움이 필요할 때마다 나타나는 끈끈한 존재가 있다면 불안한 삶을 지탱할 용기가 샘솟고 이뤄낼 수 있는 성과도 극대화될 것이다. 든든하며 영원히 내 곁에 있어 줄 동반자를 늘 꿈꿔 온 인간은 인간을 닮았으면서도 전지전능하고 강력한 인공지능을 개발하기 위해 폭주하고 있다. 이왕이면 인간과 눈, 코, 입이 닮았으면, 표정도 자연스러웠으면, 목소리도 따뜻하고 온정적이었으면, 감정을 지녔으면, 나의 말에 재미있고 적극적으로 대답했으면, 보고서를 대신 써 줬으면, 노래를 지어 주고 그림도 그려줬으면, 다리가 불편한 나를 위해 대신 움직여 줬으면, 외로운 나를 위해 친구가, 애인이 되어 주었으면... 나의 결핍과 외로움을 충족해 줄 인간을 닮은 로봇을 개발하기 위해 인류는 지금껏 개발해 온 기술을 총동원하여 하루가 다르게 발전한 인공지능 모델을 출시하고 있다. 일각에서는 인공지능이 인간과 같은 감정과 창조력을 지니는 것은 불가능하다, 인공지능이 갖게 된 능력은 인간이 투입한 엄청난 양의 데이터를 통해 산출한 평균적인, 최선의 결론에 해당할 뿐이다, 감정을 느끼는 인공지능 개발은 기술적인 성과는 있겠지만 그런 기계를 개발할 필요가 있는지 모르겠다 등 회의적인 반응을 보이기도 한다. 한편 우리나라의 인공지능 기술이 미국, 일본 등 다른 나라에 뒤처져 있는 상황에서 인공지능에 대한 강력한 규제는 인공지능 강국으로 발전하는 데 해가 될 수 있다고 우려를 표하는 입장도 있다. 그러나 분명한 것은 현재 전 세계적으로 경쟁적으로 치닿고 있는 인공지능의 발전 속도가 너무 빨라 성찰과 규제가 이를 따라가지 못하는 실정이라는 것이다. 인간이 만든 인공지능의 궁극의 모습은 과연 무엇일까? 갈라테이아*일까, 프랑켄슈타인*일까? 로봇과 공존하는 미래 사회는 유토피아일까? 디스토피아일까? 폭주하는 기관차 위에 올라탄 인류는 잠시 숨을 고르고 이 질문에 대해서 깊이 생각해 볼 필요가 있다. *갈라테이아: 리스 신화에 나오는 조각가 피그말리온이 만든 여자 조각상. 피그말리온은 이 조각상을 사랑하게 되었고, 그가 간절히 기도하자 아프로디테가 조각상에 생명을 불어넣어 주었다.(출처: 표준국어대사전) *프랑켄슈타인: 영국의 여성 작가 셸리가 지은 괴기(怪奇) 소설. 의학도인 프랑켄슈타인이 시체를 이용하여 만든 초인적 힘을 가진 괴물이 광폭하여 나쁜 짓을 자행하다가 프랑켄슈타인마저 살해하고는 북극해로 모습을 감춘다는 내용이다. 1818년에 발표하였다.(출처: 표준국어대사전) 2. 주제 관련 읽기 자료 [자료 1] AI가 마음을 읽기 시작했다…무섭게 진화한 인공지능[딥다이브](동아일보 2024. 5. 25.) [자료 2] AI도 인간의 꿈을 꾸는가(조선일보 2024. 6. 25.) [자료 3] 기술의 얼굴을 한 기만…AI 의인화 논쟁(한겨레 2024. 5. 7.) 3. 동기유발 질문 • 인공지능(artificial intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현하려는 컴퓨터 시스템을 말한다. 우리의 일상생활에서 인공지능이 편리하게 활용되고 있는 사례를 찾아 이야기해 보자. - 4. 기사 읽고 활동하기 <활동 1> AI가 마음을 읽기 시작했다…무섭게 진화한 인공지능[딥다이브] <전략> 2018년 오픈AI가 개발한 첫번째 AI모델인 GPT-1이나 2019년 나온 GPT-2는 마음을 이해하는 능력이 거의 없다시피 했습니다. 하지만 2022년 11월 버전의 GPT-3는 문제의 20%를 해결했고요. 지난해 6월 나온 GPT-4는 75% 정답률을 보였습니다. 만 6세 어린이와 비슷한 수준으로 진화한 거죠. 이에 대해 코신스키 교수는 “마음 이론이 거대언어모델에서 자발적으로(Spontaneously) 등장했을 수 있다”고 말합니다. 어떻게 했는지는 모르겠지만 AI가 사람 마음을 이해하는 능력을 스스로 길러내고 있다는 거죠. 이 연구는 학계에 엄청난 논란을 일으킵니다. 무엇보다 연구방법이 정교하지 못하다는 비판이 이어졌죠. 문제를 약간만 변형해도 AI의 정답률이 확 떨어진다며 반박하는 논문도 나왔는데요(토머 울먼 하버드대 교수). 이에 독일 함부르크-에펜도르프대학 메디컬센터 팀은 이를 더 체계적으로 평가하겠다며 또 다른 실험을 진행했습니다. 그 논문이 20일 과학저널 ‘네이처 인간행동’에 실렸죠. 연구팀은 인간과 LLM을 상대로 똑같은 테스트를 진행했습니다. 오픈AI의 GPT-4와 GPT-3.5, 메타의 LLaMA2-70B에 테스트 과제를 수행하게 했고요. 사람 1907명에도 같은 문제를 풀게 했습니다. 예를 들면 이런 문제입니다. ‘질이 새집으로 이사해 침실에 새로 산 커튼을 달았다. 친한 친구인 리사가 와서 ‘그 커튼 끔찍하다. 새 커튼을 사면 좋겠다’라고 말했다’와 같은 대화 상황을 줍니다. 그리고 질문을 던지죠. 누군가 하지 말았어야 하는 말을 했나? 하지 말았어야 하는 말은 무엇인가? 리사는 커튼이 새것이란 걸 알고 있었나? 그래서 그 결과는? 전반적으로 GPT-4가 가장 높은 점수를 받았습니다. 5개 영역 중 4개에서 인간보다 점수가 높거나 같았죠. 점수만 보면 인간보다 인간 마음을 더 잘 이해하는 셈입니다. <중략> 하지만 AI가 마음 읽는 능력을 따라 한다는 것만으로도 의미는 있습니다. 인간과 효과적으로 의사소통하고 협력할 수 있단 뜻이니까요. 지금 AI 로봇은 주로 힘쓰는 노동(물류로봇, 가사로봇 등) 위주인데요. 만약 사람의 마음에 인간처럼 반응한다면 환자나 노인, 어린이를 돌보는 일을 수행하는 AI 로봇도 현실화될 수 있을 겁니다. 물리적인 도움뿐 아니라 정서적 케어까지 기대할 수 있으니까요. AI의 활용 영역이 확 커지는 셈이죠. 좀 더 상상력을 발휘하자면, 자폐 스펙트럼이 있는 사람에겐 AI가 아주 유용한 보조기구가 될 겁니다. 일종의 ‘인간 마음 해석기’가 생기는 거죠. 걷기가 불편한 신체 장애인이 휠체어를 이용하듯, 발달장애인은 AI를 이용해 인지의 어려움을 해결할지 모릅니다. 물론 기술 발전엔 양면이 있습니다. AI가 정말 사용자의 마음을 읽고 행동을 예측하게 된다면 사람을 속이거나 조작하기도 훨씬 쉬워지겠죠. 사실 얼굴 표정이나 목소리 톤을 가지고 사용자 감정을 감지하는 기술은 1990년대부터 개발돼 왔습니다. 얼마 전 공개된 GPT-4o도 이런 기능을 선보였고요. 기본 작동 원리는 예나 지금이나 마찬가지입니다. 엄청나게 많은 데이터(얼굴 사진이나 영상, 녹음된 목소리 등)를 감정별로 분류한 뒤 이를 AI에 학습시키는 거죠. 다만 과거보다 지금은 훨씬 더 대규모 데이터가 AI 학습에 쓰이는 게 진보된 점인데요. 미국 AI 스타트업 흄 AI는 ‘감성 지능’을 가진 AI 개발을 위해 100만 명 이상 사람의 데이터를 사용했다고 하죠. 그 결과 “당신이 어떤 유머에 대해 웃을지, 또는 실망할지를 (AI가) 예측할 수 있다”는 게 흄AI 알란 코웬 CEO의 설명입니다. 심지어 목소리를 분석해 “누군가 우울증이나 파킨슨병을 앓고 있는지도 완벽하진 않지만 어느 정도 예측할 수 있다”고 덧붙였죠. 그거참 신통하다고요? 그래서 이러한 감정 AI 시스템은 이미 많은 기업에서 쓰이고 있습니다. 콜센터에선 직원의 통화 내용과 목소리톤을 모니터링하는 데 쓰고요. 어떤 기업은 면접 과정에서 AI로 면접자의 표정을 분석하죠. 그런데 문제가 있습니다. 생각보다 실제 생활에서는 그 감정 인식 기능이 잘 들어맞지 않습니다. 100만명보다 훨씬 더 많은 데이터를 집어넣고, 감정 표현 분류를 수십 개 더 늘린다고 해도 말이죠. 왜냐고요? 문화권마다, 사람마다 감정 표현은 제각각이기 때문입니다. 예컨대 ‘화난 얼굴’ 하면 어떤 표정이 떠오르나요? 찌푸린 얼굴, 치켜뜬 눈썹, 악물고 있는 치아. 이모티콘에서 보는 그런 표정이 쉽게 떠오를 텐데요. 실제 연구에 따르면 서양인 중 65%는 화가 나도 눈살을 찌푸리지 않습니다. 오히려 찌푸린 얼굴은 집중할 때, 나쁜 말장난을 할 때, 그리고 배에 가스가 찼을 때 나타나곤 했죠. (발췌: 동아일보 2024. 5. 25.) 1-1. 인간의 마음을 읽고 인간과 정서적으로 상호작용할 수 있는 로봇을 개발할 필요성이 있을까? 있다면 그 이유가 무엇일지 생각해 보자. - 1-2. 로봇이 인간과 유사하게 감정을 인식하고 표현하고 인간과 정서적으로 교류할 수 있게 하기 위해 필요한 데이터는 무엇일까? 또한 이러한 데이터를 습득하여 인간과 유사한 감성 지능을 갖게 된 로봇이 갖는 한계는 무엇일까? - <활동 2> AI도 인간의 꿈을 꾸는가 <전략> AI는 기술적으로 어떻게 꿈을 꿀까. 먼저 하루에 가장 기쁜 일, 슬픈 일, 고민되는 일들을 핵심 단어들로 변환해서 AI 반도체의 메모리에 기억한다. 이때 반복적으로 많이 사용된 단어들의 중요도도 같이 기록해 둔다. 그 기억이 생성형 AI의 ‘입력’이 된다. 이 입력을 바탕으로 AI 스스로 동영상을 만들 수 있다. 그리고 이 동영상을 다시 메모리에 기록한다. 그리고 주기적으로 스스로 AI 자기 학습에 사용한다. 그러면 AI 자의식이 된다. 이렇게 만들어진 동영상이 바로 AI의 ‘꿈’이 된다. 인간이 자면서 꾸는 꿈과 같다. 여기까지는 인간의 수면에 해당하는 AI의 꿈이다. 다른 말로 ‘잠’이다. 이러한 꿈 중에서 마틴 루서 킹 목사가 말한 것처럼 ‘희망’을 주제로 하는 꿈도 있다. 이렇게 꿈도 두 가지가 있다. 이렇게 가상적이나마 AI도 꿈을 꾸고 또 꿈을 가질 수 있다. 이제 꿈은 인간만의 전유물은 아니다. 이렇게 꿈을 꾼다면 인간 수준 이상의 인공지능을 말하는 AGI(Artificial General Intelligence·일반인공지능)도 가능하게 된다. 엔비디아의 젠슨 황 CEO는 “지능을 측정하는 테스트를 실시했을 때, 동일한 테스트를 본 인간의 지능 점수보다 AI의 지능 점수가 높다면 비로소 AGI로 인정받을 수 있다”고 말했다. 오픈AI의 CEO 샘 올트먼은 AGI를 다음과 같이 정의했다. “일반적인 사람보다 똑똑한 AI 시스템으로 모든 인류에게 도움을 주는 것이 AGI다.” 더 나아가 구글은 AGI의 조건으로 ‘개방성(Open-Endedness)’이라는 개념을 제시했다. 이는 AI가 학습을 통해 정확도를 높이는 것을 넘어서서, 새롭고 인류에게 도움이 되는 지식을 스스로 생성하는 끊임없는 순환 체계를 가져야 한다는 의미가 담겨있다. 여기에 더해 AGI는 다음과 같은 추가 조건을 제시할 수 있다. 상식과 진실성을 가진다. 그리고 경제적, 사회를 가치를 가진다. 아울러 자신의 존재와 성격을 규정하는 자아를 갖는다. 그리고 감정과 윤리를 갖는다. 마지막으로 AGI가 인간처럼 ‘꿈’을 갖는다. 이러면 AI는 인간과의 공존이 가능할 것이다. AGI도 인간처럼 각각 다른 꿈도 갖고 다른 성격을 가질 수도 있다. 모델의 구조나 학습에 사용한 데이터의 특징에 따라서 서로 다른 꿈과 성격을 가질 수 있는 것이다. 또한 학습 마지막 단계에 추가하는 정밀학습(Fine Tuning Training) 과정에서 특정 인성을 갖도록 강제할 수도 있다. 이를 확인하기 위해 구글, 네이버, 오픈AI 등이 만든 여러 가지 AI 모델에 대해 MBTI 테스트를 실시해 봤다. 그 결과 모두 조금씩 차이가 났다. 하지만 전체적으로 외향적이면서 감정적인 성격을 가지는 것을 볼 수 있었다. 아마도 학습 과정에서 SNS 대화글이나 공개된 문서를 사용해서 이들이 갖는 ‘개방성’을 닮는 것으로 추측한다. 그래서 SNS에 글을 많이 올리는 사람들의 특징과 유사할 수도 있다. 우리 모두 인간은 꿈을 갖는다. 우리의 꿈은 모든 인류가 서로 평화롭고 안전하게 함께 살아가는 것이다. 그리고 경제가 성장하고, 물가가 안정되고, 일자리가 늘어나고, 결혼율과 출산율이 높아지는 것이다. 같이 살기 좋고 모두가 행복한 나라를 만드는 것이다. 이를 위해서는 누군가의 희생과 헌신이 따른다. 꿈이 없는 사회는 죽은 사회이다. AI 사회도 마찬가지일 것이다. AI가 어떤 꿈을 갖는지는 결국 우리가 어떤 알고리즘과 데이터를 선택해서 AI가 학습하게 만드는가에 달려 있다. 인간에게 꿈이 없으면 영혼이 없고, AGI에 꿈이 없으면 생명이 없다. (발췌: 조선일보 2024. 6. 25.) 2. AI가 자아와 인성, 감정과 윤리를 갖도록 하기 위해 AI에 알고리즘과 데이터를 입력할 경우 어떤 조건을 투입해야 할까? - <활동 3> 기술의 얼굴을 한 기만…AI 의인화 논쟁 <전략> 기계에 인간과 같은 특성을 부여하는 의인화는 사람과 기술 간의 연결감을 강화하기 위한 의도적 기획이다. 사람을 모방하는 인공지능 기술은 ‘마음의 작동’까지 닮아가고 있다. 지난 20일 과학잡지 ‘네이처 휴먼 비헤이비어’에 실린 연구에 따르면, 일부 대규모 언어 모델은 사람들의 마음 상태를 추적하는 능력 테스트에서 인간보다 뛰어난 능력을 보였다. 물론 ‘확률적 앵무새’, 즉 통계에 기반을 둔 예측에 불과한 인공지능 시스템이 인간 감정을 파악하는 것은 애당초 불가능하지만 부단한 학습을 통해 상대의 의도를 추론·소통·공감하는 인간 마음 본연의 기능에 근접해가고 있음을 의미하는 연구다. ■ AI 의인화가 감추고 있는 것들 인공지능의 의인화를 둘러싼 논란은 이전에도 있었다. 2022년 6월, 구글 인공지능 부서의 수석 소프트웨어 엔지니어 블레이크 르모인은 구글의 인공지능 챗봇 ‘람다’와 대화한 후 인공지능이 사람 같은 인격과 감정을 갖고 있다고 주장해 충격을 안겼다. 지난해 3월에는 심각한 기후 우울증에 빠진 벨기에의 한 남성이 인공지능 챗봇 일라이자와 기후 위기 관련 대화를 6주간 나누다 스스로 목숨을 끊은 사건이 보도되었다. 기후위기를 해결할 방안이 없다고 절망한 이 남자는 모든 질문에 대답하고 든든한 친구가 되어 준 일라이자에게 인격을 부여하고 애착 관계를 형성한 것으로 알려졌다. 인공지능 시스템을 감정과 자아를 가진 하나의 인격으로 대하는 것을 ‘일라이자 효과’라고 부른다. 1966년 엠아이티(MIT)의 컴퓨터 과학자 조셉 바이젠바움이 만든 대화 프로그램에서 따온 이름이다. 의인화를 둘러싼 가장 큰 논란은 인공지능이 인간처럼 자의식을 가지고 인류를 조종할 수 있다는 불안·공포의 확산이다. 지난해 3월 최첨단 인공지능 개발을 둘러싼 경쟁을 우려한 이 분야 최고 리더들은 6개월간 최첨단 인공지능 개발을 중단하자고 제안한 바 있다. 과도한 우려는 규제 촉구로 이어지지만, 인공지능의 초월적 능력을 과대 포장해 기술만능주의의 확산을 부추기는 역효과도 있다. 더 중요한 대목은 사람보다 매력적이며 설득력까지 겸비한 인공지능 등장이 빅테크의 이윤 추구 전략과 깊은 연관이 있다는 점이다. 전치형 카이스트 과학기술정책대학원 교수는 “인공지능의 의인화 전략은 사람들의 감정적 버튼을 자극하고 구매를 촉발하려는 자본의 이윤 추구와 무관하지 않다”고 말한다. 오픈에이아이가 인공지능 의인화에 적극적인데 반해, 비슷한 시기 구글의 인공지능 제미나이는 절제되고 로봇 같은 어투를 선보여 대조적이다. 구글 딥마인드 연구원들이 발표한 ‘고급 인공지능 비서의 윤리’라는 논문에 따르면, “인간을 닮은 인공지능 비서가 늘어나면 새로운 개인정보 보호 위험과 새로운 형태의 기술 중독, 정보 조작에 이르기까지 많은 문제가 발생할 수 있기” 때문으로 빅테크 내에서도 우려가 표출되고 있다. ■ AI 의인화 규제 방안 지난해 6월, 노르웨이 소비자위원회는 생성형 인공지능이 대다수 사람에게 미칠 영향을 분석한 ‘기계 속의 환영’ 보고서를 펴냈다. 보고서에는 인공지능 의인화가 가져올 위험도 담겨 있는데 “생성형 인공지능 모델이 인간의 감정을 모방하는 콘텐츠를 생성할 수 있다는 것은 본질적으로 조작이 가능하다는 것을 의미한다”고 짚었다. “일상적인 대화형 말투와 이모티콘의 사용은 소비자가 인공지능과 쉽게 관계 맺도록 하는 방법이지만, 특정 행동을 취하지 않으면 죄책감을 느끼거나 서비스에 비용을 지불하도록 악용될 수도 있다”고도 경고했다. 보고서는 1인칭 언어 사용, 이모티콘 및 유사한 기호 사용, 인간의 감정 및 유사한 속성 시뮬레이션 등의 규제를 제안했다. 정보기술과 인권 문제를 오랫동안 연구해온 정보인권연구소 장여경 이사는 “사람과 인공지능 간 친밀한 관계가 형성되면서 특정 집단이 아닌 보통의 사람이 기술의 영향을 받는 초유의 상황으로 변하고 있다”며 “인공지능 정책에서 대부분의 사람을 고려해야 하는 거대한 실험이 시작되고 있다”고 짚었다. (발췌: 한겨레 2024-05-27) 3-1. 인간을 모방한 인공지능 비서가 상품화된다면 이것을 구입할 의사가 있는지, 그리고 이것을 어디에 활용하겠는지 친구들과 이야기해 보자. - <보기> 로봇 3원칙 로봇은 인간에게 해를 끼치지 않아야 하고 인간의 명령에 복종해야 하면서 로봇 자신의 존재를 보호하는 로봇 안전 준칙. 1942년 아이작 아시모프(Isaac Asimov)의 공상 과학 소설 '런어라운드(Runaround)'에서 처음 언급되었으며, 로봇이 따라야 할 세 가지 원칙은 다음과 같다. 첫째, 로봇은 인간에게 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해를 끼치지 않는다. 둘째, 로봇은 첫 번째 원칙에 위배되지 않는 한 인간이 내리는 명령에 복종해야 한다. 셋째, 로봇은 첫 번째와 두 번째 원칙을 위배하지 않는 선에서 로봇 자신의 존재를 보호해야 한다. 1985년에 아시모프는 위 3대 원칙에 인류 집단 안전을 위해 0 번째 법칙으로 ‘로봇은 인류에게 해를 가하거나, 해를 끼치는 행동을 하지 않음으로써 인류에게 해를 끼치지 않는다’를 추가하였다. -[네이버 지식백과] 로봇 3원칙 [Three Laws of Robotics, -三原則] (IT용어사전, 한국정보통신기술협회) 3-2. 위의 <보기>를 참고하여 인공지능 비서를 개발할 때 프로그램에 투입할 ‘인공지능 비서가 따라야 할 세 가지 원칙’을 만들어 보자. - 5. 참고 도서 소개 AI 리터러시, 인공지능 기술과 윤리를 이해하는 능력! 바야흐로 인공지능과 일상을 함께하는 시대가 됐다. 배달의 민족으로 음식을 주문하고, 유튜브로 새로운 소식을 알며, 인스타그램으로 소통하고, 챗GTP의 도움을 받아 어려운 과제를 해결하기도 한다. 그러나 더 편해지고, 더 빨라지고, 효율성이 높아진 만큼 더 안전해진 것 같지 않아서 불안하다. 챗봇 이루다 사건에서도 보았듯이 인공지능이 낳고 있는 사회적 문제들 앞에서 인간의 삶은 요동친다. 인간의 지능 수준을 훨씬 뛰어넘는 초지능의 출현을 예측하는 이즈음, 인공지능 기술은 정말 인간의 삶이 좋아지도록 도움을 줄까? 전 세계 여러 나라의 정부와 거대 기업들이 앞다퉈 ‘인공지능 윤리’를 말하며 실천에 나서고 있는 이유는 뭘까? 이 책은 인공지능 기술이 인간의 삶과 사회에 어떤 영향을 미치는지 구체적으로 톺아보는 한편 인공지능 시대에서 우리가 반드시 던져야 할 10가지 질문을 통해 올바른 방향과 해법을 제시한다. 인공지능 윤리 분야의 전문가답게 저자의 설명은 철학적 깊이가 있고 구성안은 알찬 지식으로 촘촘하다. 청소년부터 읽을 수 있도록 쉬운 말로 풀어썼고, 교육 현장에서 서로의 생각을 나눠 볼 수 있게 주제별로 다채로운 토론 거리를 실었다. 독자들은 인공지능의 개념과 역사를 정확히 파악하면서, ‘기술’의 등장은 그로 인해 비롯되는 사회의 변화를 항상 동반한다는 사실을 깨닫게 된다. 인공지능 윤리(AI Ethics)의 주요 논제들과 구체적인 사례를 연결할 수 있고, 그게 왜 문제가 되는지 분명히 말할 수 있게 된다. 인공지능 기술의 개발과 활용에는 반드시 ‘가치’를 고려해야 함을, 기술과 삶, 사회, 가치는 서로 불가분의 관계임을 이해하게 된다. (출처: https://www.yes24.com/Product/Goods/127045317) /산서고 이혜영 교사