이번 디자인 세미나는 연구실의 김혜은, 손연오 선생님께서 진행을 해주셨습니다. 딥페이크 등 AI와 관련된 사건사고가 터지고 있는 시점에서 AI 윤리에 대한 관심과 중요도가 올라가고 있는데요.
먼저 AI가 윤리의 대상인지, 윤리는 인간만의 것이 아닌지에 대한 질문을 던질 수 있을 것 같습니다. 국립 국어원 정의에 따르면 '윤리'란 사람으로서 마땅히 행하거나 지켜야 할 도리입니다. 주체적으로 행위할 수 있다는 것은 주체적으로 판단할 수 있다는 뜻이고, 그러한 자유의지를 가진 존재를 그 행위에 윤리적, 법적 책임이 따른다고 합니다.
본래 자유의지는 인간만의 고유한 능력이라고 여겨져왔으나 최근 들어 AI를 인간처럼 여기는 인공지능 의인화의 관점에서 인간처럼 해석한다면 AI에게도 자유의지가 있다고 지각될 수 있습니다. 즉, AI 윤리는 가능한 것이고 필요한 것이죠.
(컴퓨터 윤리, 핸드폰 윤리라는 말은 어색하지만 AI 윤리는 자연스럽게 들리는 것도 이러한 이유 때문 아닐까요?)
1.Principle of governance and stewardship : AIED의 거버넌스와 관리는 학제적이고 다중 이해 관계자의 관점을 신중하게 고려해야 하며, 데이터 윤리, 학습 분석 윤리, 계산 윤리, 인권, 포용성을 포함하되 이에 국한되지 않는 모든 관련 윤리적 고려 사항을 반영해야 함
2.Principle of transparency and accountability: 데이터 수집, 분석 및 보고 과정은 학생들의 동의와 데이터 소유권, 접근성 및 데이터가 어떻게 사용될 것인지에 대한 목적의 명확성을 가지고 투명해야 함. AI 알고리즘은 특정 교육 목적을 위해 설명 가능하고 정당화할 수 있어야 함.
3.Principle of sustainability and proportionality: AIED는 환경, 세계 경제, 그리고 노동 시장, 문화, 정치와 같은 사회에 영향을 미치지 않도록 정당한 방식으로 설계, 개발 및 사용되어야 함. 특히, 지속 가능성은 AIED의 설계, 개발, 사용이 에너지 효율성을 최적화하고 생태학적 발자국을 최소화하도록 고려해야 함. 개발과 배포 과정 전반에 걸쳐 이러한 고려사항이 달성될 수 있도록 보장하는 정책을 수립해야 함.
4.Principle of privacy: 교육 분야에서 AI와 학습 분석을 사용하는 디지털 혁명은 학습 경험을 최적화하기 위해 생성, 캡처 및 분석되는 방대한 양의 개인 데이터를 수집함 (Tzimas & Demetriadis, 2021; Pardo & Siemens, 2014). 이 과정에서 교사와 학습자의 개인 데이터가 개인정보 침해의 위험에 처할 수 있음. •AIED는 사용자로부터 충분히 정보를 제공한 동의를 얻어야 하며, 사용자가 정보를 제공하거나 시스템이 사용자에 관한 정보를 수집할 때 사용자의 정보가 기밀로 유지되도록 해야 함.
5.Principle of Security and Safety: Bostrom & Yudkowsky (2014)는 AI 시스템이 알고리즘에서 악용할 수 있는 결함을 찾기 위해 고의적으로 공격하는 인간의 적에 대해 견고해야 한다고 지적함. AIED는 사이버 범죄, 데이터 유출 및 손상 위협으로부터 데이터를 효과적으로 보호할 수 있도록 충분히 견고하게 설계되고 구현되어야 하며, 민감한 정보의 개인정보 보호와 보안을 보장해야 함.
6.Principle of inclusiveness: AIED의 설계, 개발 및 배포에서 다양한 인프라, 장비, 기술, 그리고 사회적 수용을 고려하여, 의도된 지역 내의 다양한 개인들이 공평하게 AIED에 접근하고 사용하는 것
7.Principle of human-centered AIED: 인간 중심 AIED의 원칙: 인간의 인지적, 사회적, 문화적 능력을 보완하고 향상시키며, 선택의 자유를 위한 의미 있는 기회를 보장하고, AI 기반 작업 과정에 대한 인간의 통제를 확보하는 것
No comments:
Post a Comment
Note: Only a member of this blog may post a comment.