상담소의 4인이 현장에 도착했습니다. 모둠으로 나눠져있었어요. 평소 같으면 같이 앉았겠지만, 다른 단체들의 이야기를 듣고 싶어 찢어 앉는 전략을 취해보았습니다.
오프닝으로 ‘나의 생성형 AI 활용 경험, 어디쯤 위치해 있을까’로 사전 설문 결과를 공유해 주셨습니다. 표본이 적어 유의미하지 않다는 설명을 붙여주셨지만, 여러 생각거리를 던져주었던 거 같습니다.
여러 설문 항목이 있었는데,
- 가장 기억에 남는 항목은 단체 규모별 AI 활용 정도였습니다. 왠지 인원이 적은 소규모 단체에서 적극 활용할 것으로 생각되는데, 의외로 6~20명이 활동하는 단체가 적극적으로 활용했다고 합니다.
- 많은 단체에서 AI와 관련하여 논의한 적이 있는지에 대해서는 ‘문제의식은 있음’ - ‘논의는 했지만 정책은 없음’ 이런 답변들이 있었습니다.
- 사용의 단점이나 어려움으로는 할루시네이션, 사실과 다른 내용 제공, 출처 없는 정보로 추가 검증 필요, 정책연구나 민감함 자료 조사 시 사용 회피하게 됨, 보안 및 개인정보 우려. 입력된 데이터의 학습과 저장 가능성에 대한 불안, 민감정도 처리 시 사용 지양 등을 꼽았습니다.
발제로는 ‘시민사회 생성형 AI 정책 (초안)’을 통해 모델을 제안해주었습니다. 이 모델의 목적은 셍산형 AI 기술을 단체의 목적과 인권의 원칙을 준수하면서 책임감있고 효과적으로 사용하기 위한 기준과 절차를 정하는 것으로 합니다.
‘어떻게 가이드를 제시할 수 있을까?’ 고민하며, 이미 나와있는 국/내외 자료들을 참조하여 만들었다고 합니다. 가이드에서 다루는 내용을 대략적으로 살펴보겠습니다.
- 결과물의 책임은 AI가 아닌 사용자에 있으며, AI는 도구일 뿐임을 강조합니다. 활동가의 역량을 강화하는 것이 언제나 중요하다고도 합니다.
- 활용 지침 부분에는 ‘생성형 AI가 생산한 결과물은 그대로 사용하지 않는다’의 내용이 있습니다. 최소한 인간의 감독과 개입을 거쳤다는 것을 보장하고, 개입한 사람의 책임성을 강조하기 위해서라고 합니다. 또 생산된 정보에 대한 정확성 확인도 강조하였습니다. 요약을 많이 사용하는데, 이것에 의존하다 보면, 원본을 읽지 않게 됨. 판단 어려워지고, 편향이나 고정관념 재생산될 위험도 있기 때문입니다.
- 보호와 보안의 문제도 필히 다뤄야 하는 부분입니다. 보호의 문제는 여러 측면이 있다고 합니다. 프롬프트 입력, 파일 등 생성형 AI 서버에 올라가면, 업체에서 해당 데이터에 접근하는 걸 막을 수 없다고 합니다. 보유한 데이터를 다음 개발을 위해 훈련용으로 사용하는데, 훈련 데이터가 다른 AI 출력에 활용이 되므로, 가능하면 최대한 개인정보를 올리지 않아야 한다고 합니다.
- 여러 단체들이 회의록 정리 많이 한다고 합니다. ‘아예 사용하지 말라고 하나?’ 고민될 수 있습니다. 발표자분은 ‘이게 답이야!’라기 보다는 보안 위협이 여러가지 인데, 우리가 ‘어떤걸 감당할 수 있는지’, ‘감당의 근거를 제시’하는 것이 필요하지 않을까라는 이야기도 해주셨습니다.
다음은 그룹 대화를 통해 각자의 경험, 고민, 앞으로의 방향을 함께 질문하고 나누는 시간을 가져보았습니다. ※ 이 시간은 각 활동가가 자신의 경험과 고민을 개인의 관점에서 편하게 나눈 자리입니다. 녹음이 아닌 인상적인 순간에 필기한 내용을 기반으로 정리한 기록이며, 단체나 개인이 특정되지 않게 일부 이야기는 각색하였습니다. 또한 이 내용이 단체나 활동가 전체를 대표하는 의견이 아님을 인지하고 읽어주시면 좋겠습니다.
1. AI의 역할
- 소규모 단체 중 상근 인력이 1인에 불과한 곳도 있음. 이 경우 아이디어를 함께 발굴하거나 문서를 정리하는 과정에서 AI의 큰 도움을 받는 것 같음.
- 고연차 활동가들은 결과물을 비판적으로 걸러 사용하는 것 같지만, 신규 활동가들은 AI의 답변에 의존 하다보니, 내부 역량이 약화되는 경우도 있는 것 같음.
- 이건 신규 활동가의 문제가 아닌, 선임들이 선임의 (역할)을 잘 못하고 있기에, 신규 활동가들이 AI활용을 하는 것이 아닌지 생각할 수 있지 않을까.
2. 조직 규모에 따른 활용 격차
- 앞선 설문 결과를 보면 대규모 단체일수록 AI 활용 비율이 높은 반면 소규모 단체는 낮았음. 이는 AI가 인간을 편리하게 하지만, 또 편리하기 위해서는 학습을 해야하는데, 소규모 단체는 인력, 시간 등 여건상 활용이 제한적이지 않았을까?라는 분석으로 이어짐.
- 단체마다 상황은 다르겠지만, 규모가 큰 단체의 경우 요구되는 역량이 다양하고 업무 범위도 넓음. 그렇기에 적극적으로 AI를 적극적으로 활용하는 것 같음.
3. '역량'에 대한 세대간 차이
-기성세대 활동가들이 '도구에 의존하면 역량이 악화된다'고 우려하면, 신세대 활동가들은 'AI를 잘 활용하는 것 자체가 역량'고 생각하는 것 같음. 이러면 '우리가 뒤쳐지는 것인가' 이런 생각이 들기도 함.
- 기성세대에게는 결과를 도출하는 과정, 이 과정에서의 시행착오도 중요함. 그런데 요즘은 시행착오의 과정이 아닌'실패하면 끝'. 다음은 없는. 이런 면에선 현상황에서 사용할 수 밖에 없는 도구가 아닌가 싶은 생각이 들기도 함.
4. 출처 밝혀야 하나?
- 한번 사용자의 손을 거치기 때문에 굳이 출처를 밝히지 않아도 될 것 같음. 그런데 챗GPT가 써준 게 티가 나는 글이면 기재하는 편임.
- 결과물에 책임은 사용자에게 있기 때문에 공개를 해야 함.
- 인용이나 출처 등 기존의 저작자를 밝히는 것과는 다른 부분같음. 논의가 필요해 보임.
5. 학습인가 모방인가 - 양가감정
- 활동가에게 요구되는 역량이 아닌 기술(디자인, 홈페이지 관리 등)을 학습하기 위해 사용 시 잘 활용하고 있고, 내가 성장하는 기분이 듦.
- 반면 활동가에게 요구되는 기본적인 역량 글쓰기 등, 특히 '성명서' 작성 시 도움을 받으면 AI에 의존하는 것 같고, 역량이 악화되는 기분. 죄책감까지 느껴짐.
6. AI시대라지만 ‘사람’중심이 되어야
- 활동가가 AI를 사용할 때 필요한 것은 기술 역량 강화보다 감수성을 가지고 사용해야 함. 편협하고 왜곡된 정보, 차별적인 결과물은 우리가 걸러낼 수 있어야 함.
- 일상을 넘어 성폭력 피해처럼 상황과 맥락을 봐야 하는 문제들조차 ‘예 또는 아니오’식 즉답을 원하는 현실에 대한 우려.
이렇게 저희 그룹에서 나오는 이야기들을 대략적으로 정리해보았는데요. 도구로서 사용하되, 활동가의 감수성과 언어를 잃지 않으면 좋겠다는 이야기로 마무리 되었습니다.
워크숍이 끝난 뒤 다른 팀의 활동가에게 들은 이야기가 인상적이었습니다. 한 단체에서는 시민들이 왜곡되지 않은 올바른 정보를 접할 수 있도록, 우리의 정보가 빠르게 잘 노출될 수 있도록 하는 기술적 방법들을 함께 고민하고 있었다고 합니다. 이런 결정까지 내부에 엄청난 논의의 시간이 있었으리라 짐작됩니다.
상담소도 시민단체로서, 반성폭력운동단체로서 어떻게 활용할 수 있을까요. 분명한 건 AI시대를 예언한 '커즈 와일'의 충고처럼 이 시대를 맞이할 충분한 준비가 필요할 것 같습니다. (어떻게 마무리 해야할지 흑)