본문바로가기

NEWS & INSIGHTS

미래세대를 위한 평화상, 선학평화상재단입니다.

[AI액티비즘(AI Activism)이란?] 이미지

AI액티비즘(AI Activism)이란?

―2024 미국 대선, 딥페이크, 그리고 AI의 현실―미국 대선을 앞두고, 딥페이크 영상과 AI 생성 이미지가 빠르게 확산됐습니다.많은 이들이 말했습니다.“AI가 선거를 망칠지도 모른다.”결과는 어땠을까요.TIME은 이렇게 정리했습니다.“우려했던 대혼란은 오지 않았다.”하지만 이어서 덧붙입니다.“그래서 더 위험하다.”눈에 띄는 혼란은 없었지만, 폐쇄형 채팅방과 비공개 메시지처럼 보이지 않는 공간에서 AI의 영향력은 여전히 작동하고 있다는 경고였습니다.2024년 미국 대선은 우리에게 이 질문을 남겼습니다.“AI가 위협을 키우기 전에, 우리는 무엇을 해야 하는가?”이 질문에서, AI 액티비즘은 시작됩니다.―AI 액티비즘이란?“기술을 감시하는 시민”―AI 액티비즘(AI Activism)이란,인공지능이 시민을 어떻게 감시하고, 누구를 차별하고, 어떤 정보는 키우고 어떤 정보는 지우는지, 그 과정을 시민이 직접 감시하고, 질문하고, 책임을 요구하는 행동입니다.UNESCO는 2021년 「AI 윤리 권고(Recommendation on the Ethics of AI (2021)」에서, 이렇게 말했습니다.“AI는 인권·평등·투명성·책임성 원칙에 따라 관리되어야 하며, 이를 위해 시민 참여는 필수적이다.”AI는 더 이상 기술자들만의 실험실에서 움직이는 존재가 아닙니다. 입시, 취업, 금융, 의료, 정치까지 우리 일상 전반에 스며드는 구조가 되었죠.그래서 우리는 이제,“기술을 감시하는 시민”즉, AI 액티비스트가 필요해졌습니다.AI에 대해 더 알고 싶다면, 다음 글을 참고하세요!⇊착한 AI란?―AI 액티비즘의 유형기술을 감시하는 시민들―▶ 감시 사회를 감시하는 사람들 - 알고리즘 뒤에 숨은 권력을 되돌려 보는 시선SF가 아닙니다.지금, 현실입니다.Carnegie Endowment의AI Global Surveillance Index에 따르면, 전 세계 176개국 중 최소 75개국은 이미 AI 기반 감시 기술을 공식적으로 사용 중입니다.AI 기반 감시 기술 사용 국가 – 대륙별 분류(Carnegie Endowment, AI Global Surveillance Index)대륙국가아시아 / 중동중국, 대한민국, 일본, 인도, 인도네시아, 싱가포르, 태국, 대만, 홍콩, 이란, 이라크, 이스라엘, 사우디아라비아, 아랍에미리트, 바레인, 터키, 우즈베키스탄, 카자흐스탄, 타지키스탄, 미얀마유럽영국, 독일, 프랑스, 이탈리아, 스페인, 스위스, 덴마크, 체코, 루마니아, 세르비아, 러시아, 우크라이나, 조지아미주미국, 캐나다, 브라질, 아르헨티나, 칠레, 콜롬비아, 에콰도르, 볼리비아, 우루과이, 베네수엘라아프리카이집트, 알제리, 르완다, 가나, 우간다, 남아프리카공화국, 잠비아, 짐바브웨, 보츠와나, 아이보리코스트오세아니아호주“당신의 국가도 포함되어 있나요?”여기서 AI 액티비즘은 질문을 시작합니다.“누가, 누구를, 어떤 기준으로 감시하고 있는가?”“그 감시는 모두에게 공정한가?”유엔 인권최고대표사무소(OHCHR)는 「디지털 시대의 프라이버시 권리(The Right to Privacy in the Digital Age)」에서, 이렇게 경고합니다.“이러한 기술 발전은, 적절한 안전장치 없이 사용될 경우 인간의 존엄성과 자율성, 프라이버시에 아주 중대한 위험을 가져올 수 있다.”AI 액티비즘은, 바로 이 비대칭적 감시에“이것이 정당한가?”라고 묻기 시작한 움직임입니다.▶ 데이터는 누구 것인가 - Digital Rights Activism“AI 시대의 석유는 데이터” 라는 말, 많이 들어보셨을 겁니다.그런데 그 석유, 누구 땅에서 나온 걸까요?생성형 AI의 확산으로 우리의 SNS 글, 사진, 음성, 논문, 코드가 동의 없이 수집·학습되고 있습니다.그 결과, 우리의 일상이 AI 성능을 키우고, 기업의 가치와 수익으로 돌아가는 구조가 만들어졌습니다.여기서 떠오르는 질문,내 얼굴, 내 목소리, 내 글이 누가, 언제, 어떤 목적으로 사용되는지 내가 알 권리는 없는 걸까? 내가 통제할 권리는 없는 걸까?EU의 일반개인정보보호규정(GDPR, General Data Protection Regulation)은, 이미 그 권리를 보장하고 있습니다.“개인은 자신의 데이터가 처리되고 있는지, 그리고 어떤 데이터가 어떤 방식으로 사용되고 있는지 직접 열람할 권리를 가진다”쉽게 말해,‘몰래 쓰지 말라’는 최소한의 룰을 만든 겁니다.▶ 생성형 AI에 책임을 묻는 사람들 - 창작과 표절, 도구와 무기의 경계 따져보기딥페이크, ChatGPT, 이미지 생성 모델. 이제 AI는 단순히 정보를 ‘요약’ 하는 도구를 넘어, 현실을 새로 만들어내는 힘을 갖기 시작했습니다.문제는 그 힘이 항상 선한 방향으로 쓰이지 않는다는 점입니다.특히 딥페이크 영상의 90% 이상이 여성의 얼굴을 도용한 비동의 성적 콘텐츠라는 통계는 AI가 얼마나 쉽게 폭력의 도구로 변할 수 있는지를 보여줍니다.(출처:CIGI, Women, Not Politicians, Are Targeted Most Often by Deepfake Videos))그래서 지금, 작가와 예술가, 학계와 시민단체들이 한목소리로 요구하고 있습니다. “무단으로 데이터를 학습하는 관행을 중단하라.” “AI가 생성한 콘텐츠임을 명확히 표시하라.” “선거와 정치 영역에서 사용되는 AI는 별도의 규제가 필요하다.”―우리는 무엇을 할 수 있을까?법·캠페인·캠퍼스에서의 작은 실험들―▶ 규칙을 바꾸는 쪽에 힘을 실어주기: 법·제도 - 기술은 저절로 선해지지 않는다기술은 저절로 선해지지 않습니다.때문에 중요한 것은“AI는 어떤 규칙 아래에서만 작동할 수 있는가”를 정하는 일입니다.EU는 2024년 AI 법(AI Act)을 통과시키며, 기술을 규율하는 세계 최초의 포괄적 AI 법체계를 마련했습니다. 여기에는 이런 내용이 포함됩니다. • 실시간 얼굴 인식 감시의 원칙적 금지 • 고위험 AI(채용·신용평가·교육·의료 등)에 대해 리스크 평가·데이터 거버넌스·설명 책임 의무 부과 • 딥페이크 및 AI 생성 콘텐츠의 표시 의무화이 법의 메시지는 분명합니다.“기술은 저절로 선해지지 않는다.결국 방향을 정하는 것은 법과 시민 감시다.”▶ 데이터를 되찾는 운동: 디지털 권리 - 내 정보의 주인을 ‘플랫폼’에서 ‘나’로 되돌리는 일지금 우리가 할 수 있는 일은 생각보다 구체적입니다.먼저, 묻는 것부터 시작합니다.내 얼굴, 내 목소리, 내 글이 어디에 쓰였는지, 누가 가져갔는지, 나는 왜 몰랐는지.개인은 기업과 플랫폼에 이렇게 요구할 수 있습니다.“내 데이터가 어떻게 쓰였는지 보여달라.”“틀렸다면 고쳐라.”“원하지 않으면 지워라.”그리고 지금, 한 단계 더 나아간 요구가 등장하고 있습니다.“AI 학습에 내 데이터를 쓰지 말라고 직접 요구할 수 있어야 하지 않나?”이미 이런 행동들이 시작됐습니다.예술가들은 ‘무단 학습 반대’ 선언에 이름을 올리고, 개발자들은 AI 학습 차단 도구를 만들고, 시민단체들은 옵트아웃(opt-out) 권리의 법제화를 요구합니다.작은 행동처럼 보이지만, 방향은 분명합니다.데이터의 주인을 다시 묻는 것.동의 없는 수집을 ‘당연함’으로 두지 않는 것.―우리에게 남은 질문―MIT 연구자 조이 불라미니는 이렇게 말했습니다.“기술은 중립이 아니다. 기술을 어떻게 쓰느냐가 우리 사회를 결정한다.”결국 남은 질문은 이것입니다.AI가 방향을 정하기 전에, 나는 어떤 질문을 던질 것인가.이 기술은 누구를 위한 것인가.이 결정의 과정에서 내 얼굴은, 내 목소리는, 내 데이터는 어떻게 사용되고 있는가.그 질문을 멈추지 않는 태도.“동의하지 않았다” 고 말할 수 있는 용기가 필요한 시점입니다. 글최연제 국장같이 읽으면 좋은 글 :착한 AI란?AI 불평등이란?참고문헌 및 출처 :미국 2024 대선 & AI 영향 분석• TIME. AI’s Underwhelming Impact on the 2024 Elections, 2024-10-30 분석 기사: https://time.com/7131271/ai-2024-elections/(TIME)AI 감시 기술 & 국제 상황• Carnegie Endowment for International Peace. AI Global Surveillance (AIGS) Index— AI 기반 감시 기술 글로벌 데이터: https://carnegieendowment.org/features/ai-global-surveillance-technology(카네기 국제 평화 재단)알고리즘 편향 연구• Buolamwini & Gebru. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification— MIT Media Lab 연구: https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf(Proceedings of Machine Learning Research)• Algorithmic Justice League / Gender Shades 개요 배경 설명: https://gs.ajl.org/(Gender Shades)• Wikipedia — Joy Buolamwini (AI 편향 연구자 프로필): https://en.wikipedia.org/wiki/Joy_Buolamwini(위키백과)AI와 선거 / 글로벌 맥락• UNRIC. Can artificial intelligence (AI) influence elections? AI가 선거에 미치는 영향과 우려: https://unric.org/en/can-artificial-intelligence-ai-influence-elections/(UN 지역정보센터)디지털 권리 & GDPR• General Data Protection Regulation (GDPR)— EU 개인정보보호규정 (법령 전체): https://gdpr-info.eu/(위키백과)EU AI 규제• Artificial Intelligence Act (AI Act)— 유럽연합의 AI 포괄 규제법:https://eur-lex.europa.eu/EN/legal-content/summary/rules-for-trustworthy-artificial-intelligence-in-the-eu.html(위키백과)• AI Act – Synthetic Content Transparency Obligations (Article 50)(AI 생성 콘텐츠 표시 의무):https://artificialintelligenceact.eu/article/50/(위키백과)AI 데이터·딥페이크 관련 글로벌 분석 (보조)• IPIE. The Role of Generative AI Use in 2024 Elections Worldwide— 생성형 AI 사건 전세계 데이터: https://www.ipie.info/research/tp2025-2(IPIE)

2026.01.21
  6 7 8 9 10  
Sunhak Peace Prize

미래세대는 현세대의 생물학적 자손을 넘어 현세대가 직접 만날 수 없는
미래의 인류 일반을 의미합니다.

현세대가 행하는 모든 행위는 미래세대에게 긍정적·부정적 영향을 주기에
우리는 미래세대에 대한 책임 의식을 가져야 합니다.