
많은 사람들이 AI가 인류를 멸망시킬 것이라는 미래의 공포에 사로잡혀 있습니다. 하지만 놀랍게도, AI 훈련 한 번에 차로 지구를 5바퀴 도는 것과 같은 탄소가 배출되고 있다는 사실을 아시나요? 10년 넘게 AI를 연구해온 Sasha Luccioni 박사는 우리가 먼 미래의 실존적 위험이 아닌, 지금 당장 벌어지고 있는 현실적 문제에 집중해야 한다고 강조합니다. 환경 파괴, 저작권 침해, 그리고 사회적 편향이라는 세 가지 핵심 이슈를 중심으로, AI가 우리 삶에 미치는 실질적 영향을 살펴보겠습니다.
AI 모델의 숨겨진 환경 비용
흔히 클라우드 서비스는 무형의 공간처럼 느껴지지만, 실제로는 막대한 물리적 자원과 에너지를 소비하는 시스템입니다. 필자의 경우 아침마다 커피를 갈 때 작은 모터 소리와 함께 전기가 소비되는 것을 느낍니다. 마찬가지로 AI 모델도 우리가 쿼리를 날릴 때마다 지구에 실질적인 비용을 청구하고 있습니다.
Sasha Luccioni 박사가 참여한 빅사이언스 이니셔티브는 전 세계 천 명의 연구자가 모여 최초의 개방형 대규모 언어 모델인 Bloom을 만들었습니다. 이 프로젝트를 통해 밝혀진 환경적 영향은 충격적이었습니다. Bloom의 훈련 과정에서만 1년 동안 30가구가 사용하는 에너지를 소비했고, 25톤의 이산화탄소를 배출했습니다. 이는 단순히 노크 노크 농담을 생성하기 위해 차를 몰고 지구를 5바퀴 도는 것과 같은 환경 비용입니다.
더 큰 문제는 기술 회사들이 이러한 데이터를 측정하거나 공개하지 않는다는 점입니다. GPT-3와 같은 유사한 대규모 언어 모델은 Bloom보다 20배 더 많은 탄소를 배출하는 것으로 추정됩니다. 실제로 대규모 언어 모델은 지난 5년 동안 크기가 2,000배나 커졌으며, 당연히 환경 비용도 함께 급증했습니다. 직접 겪어본 바로는, 우리가 스마트폰 화면을 켤 때마다 백그라운드에서 수많은 서버 연산이 돌아가는 것을 알면서도, 그 보이지 않는 전기 소비에 대해서는 무감각해지기 쉽습니다.
Luccioni 박사의 최근 연구에 따르면, 더 작고 효율적인 모델을 더 큰 언어 모델로 교체하면 동일한 작업에 대해 14배 더 많은 탄소를 배출합니다. 문제는 이러한 모델들이 이제 휴대폰, 검색 엔진, 스마트 냉장고, 스피커 등 일상의 모든 곳에 스며들면서 환경 비용이 기하급수적으로 증가하고 있다는 점입니다. 개인적으로 솔직히 놀라웠습니다. 우리가 편리함을 추구하는 그 순간마다 지구는 조용히 대가를 치르고 있었던 것입니다. 이러한 문제를 해결하기 위해 Luccioni 박사는 CodeCarbon이라는 도구 개발에 참여했습니다. 이 도구는 AI 훈련 코드와 병렬로 실행되어 소비되는 에너지와 배출되는 탄소의 양을 실시간으로 추정합니다. 이를 통해 개발자들은 더 지속 가능한 모델을 선택하거나, 재생 에너지로 구동되는 서버에 AI 모델을 배포하는 등 정보에 기반한 결정을 내릴 수 있게 되었습니다. 미래의 실존적 위험에 집중하는 대신, 현재의 측정 가능한 영향에 대응하는 것이 훨씬 더 실질적인 접근입니다.
동의 없이 사용되는 창작물, 저작권 침해 문제
AI 모델이 학습하는 방대한 데이터 세트에는 예술가와 작가의 평생 작품이 그들의 동의 없이 포함되어 있습니다. 이것은 단순한 기술적 문제가 아니라, 창작자의 권리와 직결된 심각한 윤리적 이슈입니다. Spawning.ai라는 예술가들이 설립한 조직은 'Have I Been Trained?'라는 도구를 만들어 이 문제에 대응하고 있습니다. 이 도구를 사용하면 방대한 AI 학습 데이터 세트를 검색하여 자신의 작품이나 정보가 포함되어 있는지 확인할 수 있습니다. Luccioni 박사 본인도 궁금증에 LAION-5B라는 거대한 이미지-텍스트 데이터 세트를 검색해봤습니다. 결과는 흥미로우면서도 우려스러웠습니다. 처음 두 이미지는 실제로 그녀가 강연했던 행사에서 찍은 사진이었지만, 나머지 이미지들은 전혀 다른 사람들이었습니다. 이것은 이미지 생성 모델에 "사샤라는 여성의 사진"을 요청했을 때 왜 비키니 모델 이미지가 자주 등장하는지를 설명해줍니다. 때로는 팔이 두 개, 때로는 세 개인 이상한 이미지들이지만 공통점은 옷을 거의 입지 않았다는 것이었습니다.
| 구분 | 현황 | 문제점 |
|---|---|---|
| 데이터 수집 | 창작자 동의 없이 수집 | 저작권 침해 가능성 |
| 사용 범위 | AI 모델 훈련에 무제한 활용 | 창작자 권리 무시 |
| 검증 방법 | 'Have I Been Trained?' 도구 | 소송 증거로 활용 가능 |
| 대응 방안 | 옵트인/옵트아웃 메커니즘 | 창작자 선택권 보장 |
예술가 Karla Ortiz의 경우는 더욱 심각합니다. 그녀는 자신의 평생 작품인 예술 작품들이 동의 없이 AI 모델 훈련에 사용되었다는 사실을 'Have I Been Trained?' 도구를 통해 확인했습니다. 이는 단순한 발견을 넘어서 법적 증거가 되었습니다. Ortiz와 두 명의 동료 예술가는 이 증거를 바탕으로 AI 회사를 상대로 저작권 침해에 대한 집단 소송을 제기했습니다. 이 사건은 AI 시대의 창작자 권리에 대한 중요한 선례가 될 것으로 보입니다.
다행히 변화의 움직임도 있습니다. 최근 Spawning.ai는 Hugging Face와 협력하여 데이터 세트 구축에 옵트인 및 옵트아웃 메커니즘을 도입했습니다. 이는 인간이 만든 예술 작품이 AI 언어 모델을 훈련하기 위한 무제한 뷔페가 되어서는 안 된다는 철학을 반영합니다. 창작자들은 이제 자신의 작품이 AI 학습에 사용되는 것을 허용할지 말지를 선택할 수 있게 되었습니다. 이건 정말 중요합니다. 기술 발전이 창작자의 권리를 짓밟는 방식으로 이루어져서는 안 되기 때문입니다. 필자가 평소 전자기기를 사용할 때면 항상 백그라운드에서 무언가가 작동하고 있다는 느낌을 받습니다. 작은 앱 하나를 실행해도 수많은 서버 연산이 돌아가는 것처럼, AI 역시 우리 눈에 보이지 않는 곳에서 누군가의 창작물을 소비하고 있습니다. 이러한 보이지 않는 비용과 윤리적 문제를 인식하는 것이 책임 있는 기술 사용의 첫걸음입니다.
AI에 내재된 편향과 차별의 위험성
AI 모델의 편향 문제는 이미 널리 알려진 이슈지만, 그 실질적 피해는 우리 상상보다 훨씬 심각합니다. 엄밀히 말하면 AI 모델이 고정관념, 인종차별, 성차별을 나타낼 수 있는 패턴과 신념을 인코딩하는 경우를 의미합니다. Joy Buolamwini 박사는 이 문제를 몸소 경험했습니다. 그녀는 AI 시스템이 흰색 마스크를 쓰지 않으면 자신의 얼굴조차 인식하지 못한다는 사실을 발견했습니다. 더 깊이 조사한 결과, 일반적인 안면 인식 시스템이 백인 남성에 비해 유색인종 여성에게 훨씬 더 낮은 정확도를 보인다는 충격적인 사실이 드러났습니다. 문제는 이러한 편향된 모델이 법 집행 환경에 실제로 배포되고 있다는 점입니다. 그 결과는 허위 고발과 부당한 투옥으로 이어졌습니다.
Porcha Woodruff의 사례가 대표적입니다. 그녀는 임신 8개월의 몸으로 차량 절도 혐의로 부당하게 기소되었습니다. 이유는 단 하나, AI 시스템이 그녀를 범인으로 잘못 식별했기 때문입니다. 슬프게도 이러한 시스템은 블랙박스처럼 작동하며, 제작자조차도 왜 그런 결정을 내렸는지 정확히 설명할 수 없습니다. 이미지 생성 시스템의 편향은 더욱 광범위합니다. 만약 이러한 시스템이 범죄자 묘사를 바탕으로 몽타주를 생성하는 데 사용된다면, '위험한 범죄자', '테러리스트', '갱단 조직원'과 같은 용어에 대해 편향된 결과를 생성하게 됩니다. 이는 사회에 배포될 때 매우 위험한 결과를 초래할 수 있습니다. 특히 법 집행 기관이 이러한 도구에 의존할 경우, 특정 인종이나 계층에 대한 차별이 시스템적으로 강화될 수 있습니다.
Luccioni 박사는 이 문제를 가시화하기 위해 '스테이블 바이어스 익스플로러'라는 도구를 개발했습니다. 이 도구는 직업이라는 렌즈를 통해 이미지 생성 모델의 편향을 탐색할 수 있게 해줍니다. 예를 들어 '과학자'를 떠올려보면 어떤 이미지가 떠오르나요? 대부분 안경을 쓰고 실험복을 입은 남성의 모습일 것입니다. 실제로 여러 이미지 생성 모델을 분석한 결과, 미국 노동 통계국의 실제 데이터와 비교했을 때에도 150개 직업 전체에서 백인과 남성이 과도하게 많이 나타났습니다.
• AI 안면 인식 시스템은 유색인종 여성에게 현저히 낮은 정확도를 보임
• 편향된 AI 시스템이 법 집행에 사용되어 무고한 사람들이 체포되는 사례 발생
• 이미지 생성 모델은 변호사와 CEO를 거의 100% 남성으로 표현
• 150개 직업 전체에서 백인과 남성이 실제 통계보다 과도하게 많이 나타남
• 코딩 지식 없이도 사용할 수 있는 편향 탐색 도구가 개발되고 있음
이러한 모델들은 변호사를 남성으로, CEO를 남성으로 표현하는 경향이 거의 100%에 가깝습니다. 우리 모두 현실에서 그들이 모두 백인 남성이 아니라는 것을 알고 있음에도 불구하고 말입니다. 물론 Luccioni 박사의 도구가 아직 법률 제정에 직접 사용되지는 않았지만, 최근 성별 편향에 대한 UN 행사에서 발표되어 큰 주목을 받았습니다. 이 도구의 가치는 코딩 방법을 모르는 사람들을 포함하여 모든 계층의 사람들이 AI에 참여하고 더 잘 이해할 수 있도록 접근성을 제공한다는 점입니다. 이러한 AI 모델들이 이미 우리 사회, 휴대 전화, 소셜 미디어 피드, 심지어 사법 시스템과 경제 구조에까지 스며들고 있습니다. 그렇기 때문에 AI가 어떻게 작동하는지, 그리고 언제 제대로 작동하지 않는지 알 수 있도록 AI에 대한 접근성을 유지하는 것이 정말 중요합니다. 편향, 저작권, 기후 변화와 같은 복잡한 문제에 대한 단일 해결책은 없지만, AI의 영향을 측정하는 도구를 만들면 문제가 얼마나 심각한지 파악하고 해결을 시작할 수 있습니다.
Sasha Luccioni 박사는 AI의 미래 실존적 위험에 초점을 맞추는 것은 현재의 매우 실질적인 영향으로부터 주의를 분산시키는 것이라고 지적합니다. 사회를 보호하고 지구를 보호하기 위한 안전 장치를 만들기 시작해야 합니다. 일단 이러한 정보를 얻게 되면 기업은 더 지속 가능하고 저작권을 존중하는 모델을 선택할 수 있고, 법을 제정하는 의원들은 새로운 규제 메커니즘을 개발할 수 있으며, 우리 같은 사용자는 우리를 잘못 나타내거나 데이터를 오용하지 않는 신뢰할 수 있는 AI 모델을 선택할 수 있습니다. AI는 빠르게 움직이고 있지만 끝난 일은 아닙니다. 우리는 길을 걸으면서 길을 만들고 있으며, 함께 어떤 방향으로 가고 싶은지 집단적으로 결정할 수 있습니다.
필자의 한 마디
AI 기술의 발전을 막을 수는 없지만, 그 방향은 우리가 선택할 수 있다는 점이 가장 와닿았습니다. 먼 미래의 공포보다는 지금 당장 측정하고 개선할 수 있는 문제들에 집중하는 것이야말로 진정 책임 있는 자세라고 생각합니다. 기술이 인간과 지구를 존중하며 발전하는 미래를 함께 만들어갔으면 좋겠습니다.
자주 묻는 질문 (FAQ)
Q. AI 모델의 탄소 배출량을 줄이기 위한 실질적인 방법은 무엇인가요?
A. CodeCarbon과 같은 도구를 사용하여 AI 훈련 과정에서 소비되는 에너지와 배출되는 탄소를 측정하는 것이 첫 단계입니다. 이를 통해 더 작고 효율적인 모델을 선택하거나, 재생 에너지로 구동되는 서버에 AI 모델을 배포하는 등 정보에 기반한 결정을 내릴 수 있습니다. 기업 차원에서는 모델 크기보다 효율성을 우선시하는 설계 원칙을 도입하는 것도 중요합니다.
Q. 내 창작물이 AI 학습 데이터에 포함되었는지 어떻게 확인할 수 있나요?
A. Spawning.ai에서 제공하는 'Have I Been Trained?' 도구를 사용하면 LAION-5B와 같은 대규모 데이터 세트를 검색하여 자신의 이미지나 작품이 포함되어 있는지 확인할 수 있습니다. 만약 발견된다면 이는 저작권 침해에 대한 법적 증거로도 활용될 수 있으며, 옵트아웃 메커니즘을 통해 향후 데이터 수집을 거부할 수도 있습니다.
Q. AI의 편향 문제를 개인 사용자 차원에서 어떻게 인식하고 대응할 수 있나요?
A. '스테이블 바이어스 익스플로러'와 같은 도구를 사용하여 AI 이미지 생성 모델이 특정 직업이나 개념을 어떻게 표현하는지 직접 확인해볼 수 있습니다. 일상에서 AI 서비스를 사용할 때 결과물이 특정 인종, 성별, 연령대에 편향되어 있지 않은지 비판적으로 살펴보고, 문제가 발견되면 서비스 제공자에게 피드백을 제공하는 것도 중요한 대응 방법입니다.
--- [출처] 영상 제목/채널명: AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED https://youtu.be/eXdVDhOGqoE?si=All1Wz78eTKT7IeZ