Thursday, December 5, 2024

2024년 12월 5일 디자인 세미나: AI 윤리와 딥페이크

 

이번 디자인 세미나는 연구실의 김혜은, 손연오 선생님께서 진행을 해주셨습니다. 딥페이크 등 AI와 관련된 사건사고가 터지고 있는 시점에서 AI 윤리에 대한 관심과 중요도가 올라가고 있는데요.
먼저 AI가 윤리의 대상인지, 윤리는 인간만의 것이 아닌지에 대한 질문을 던질 수 있을 것 같습니다. 국립 국어원 정의에 따르면 '윤리'란 사람으로서 마땅히 행하거나 지켜야 할 도리입니다. 주체적으로 행위할 수 있다는 것은 주체적으로 판단할 수 있다는 뜻이고, 그러한 자유의지를 가진 존재를 그 행위에 윤리적, 법적 책임이 따른다고 합니다. 
본래 자유의지는 인간만의 고유한 능력이라고 여겨져왔으나 최근 들어 AI를 인간처럼 여기는 인공지능 의인화의 관점에서 인간처럼 해석한다면 AI에게도 자유의지가 있다고 지각될 수 있습니다. 즉, AI 윤리는 가능한 것이고 필요한 것이죠.
(컴퓨터 윤리, 핸드폰 윤리라는 말은 어색하지만 AI 윤리는 자연스럽게 들리는 것도 이러한 이유 때문 아닐까요?)


교육학을 연구하는 우리는 교육에서 AI 윤리를 살펴봐야 하는데 이에 대한 논의가 충분하지 않은 상황이라고 합니다. 
교육계에서는 AI 윤리 문제로 사회적 편향, 혐오 등 사회적 문제뿐만 아니라 데이터 자율성 및 주권, 학습자 개인정보 침해 등 다양한 문제가 일어날 수 있습니다. 

 
아래 논문은 유네스코, OECD 등 여러 기관에서 배포한 AI 윤리 및 AI 교육 보고서를 종합하여 AIED에 필요한 윤리 원칙을 7가지로 도출하였습니다. 

Nguyen, A., Ngo, H. N., Hong, Y., Dang, B., & Nguyen, B. P. T. (2023). Ethical principles for artificial intelligence in education. Education and Information Technologies28(4), 4221-4241. 

1.Principle of governance and stewardship : AIED의 거버넌스와 관리는 학제적이고 다중 이해 관계자의 관점을 신중하게 고려해야 하며, 데이터 윤리, 학습 분석 윤리, 계산 윤리, 인권, 포용성을 포함하되 이에 국한되지 않는 모든 관련 윤리적 고려 사항을 반영해야 함 

2.Principle of transparency and accountability: 데이터 수집, 분석 및 보고 과정은 학생들의 동의와 데이터 소유권, 접근성 및 데이터가 어떻게 사용될 것인지에 대한 목적의 명확성을 가지고 투명해야 함. AI 알고리즘은 특정 교육 목적을 위해 설명 가능하고 정당화할 수 있어야 함. 

3.Principle of sustainability and proportionality: AIED는 환경, 세계 경제, 그리고 노동 시장, 문화, 정치와 같은 사회에 영향을 미치지 않도록 정당한 방식으로 설계, 개발 및 사용되어야 함. 특히, 지속 가능성은 AIED의 설계, 개발, 사용이 에너지 효율성을 최적화하고 생태학적 발자국을 최소화하도록 고려해야 함. 개발과 배포 과정 전반에 걸쳐 이러한 고려사항이 달성될 수 있도록 보장하는 정책을 수립해야 함. 

4.Principle of privacy: 교육 분야에서 AI와 학습 분석을 사용하는 디지털 혁명은 학습 경험을 최적화하기 위해 생성, 캡처 및 분석되는 방대한 양의 개인 데이터를 수집함 (Tzimas & Demetriadis, 2021; Pardo & Siemens, 2014). 이 과정에서 교사와 학습자의 개인 데이터가 개인정보 침해의 위험에 처할 수 있음. •AIED는 사용자로부터 충분히 정보를 제공한 동의를 얻어야 하며, 사용자가 정보를 제공하거나 시스템이 사용자에 관한 정보를 수집할 때 사용자의 정보가 기밀로 유지되도록 해야 함.

5.Principle of Security and Safety: Bostrom & Yudkowsky (2014)는 AI 시스템이 알고리즘에서 악용할 수 있는 결함을 찾기 위해 고의적으로 공격하는 인간의 적에 대해 견고해야 한다고 지적함. AIED는 사이버 범죄, 데이터 유출 및 손상 위협으로부터 데이터를 효과적으로 보호할 수 있도록 충분히 견고하게 설계되고 구현되어야 하며, 민감한 정보의 개인정보 보호와 보안을 보장해야 함. 

6.Principle of inclusiveness: AIED의 설계, 개발 및 배포에서 다양한 인프라, 장비, 기술, 그리고 사회적 수용을 고려하여, 의도된 지역 내의 다양한 개인들이 공평하게 AIED에 접근하고 사용하는 것

7.Principle of human-centered AIED: 인간 중심 AIED 원칙: 인간의 인지적, 사회적, 문화적 능력을 보완하고 향상시키며, 선택의 자유를 위한 의미 있는 기회를 보장하고, AI 기반 작업 과정에 대한 인간의 통제를 확보하는


이러한 논의와 연구가 더 활발히 이루어진다면 학생들이 더 안전한 환경에서 AI와 효과적으로 학습할 수 있겠죠?

AI 윤리에 대한 발표에 이어서 딥페이크에 대한 설명이 이어졌습니다. 딥페이크는 딥러닝과 가짜라는 영단어 페이크의 합성어로 GAN, CNN 등의 기술을 통해 만들 수 있습니다. 최근에는 기술의 발달로 적은 데이터로도 이러한 딥페이크 영상을 만들 수 있다고 합니다. 자칫하면 인권을 침해하는 범죄로도 악용될 수 있어서 해당 기술에 대해 큰 우려가 존재하고 있습니다. 

이러한 기술을 무작정 무서워만 하는 것이 아니라 실제로 한번 딥페이크 코드를 살펴보자고 하시면서 딥페이크 제작 코드를 소개해주셨는데요. 구글, 깃허브 검색으로 딥페이크에 대한 다양한 코드를 쉽게 찾을 수 있었습니다. 데이터를 학습시키는 데 시간이 걸려서 본 세미나 때는 진행을 하지 못하였지만 이러한 코드로 일반인도 딥페이크 작동 원리에 대해 접근할 수 있었습니다. 








No comments:

Post a Comment

Note: Only a member of this blog may post a comment.