안녕하세요, Green Geek 구독자 여러분! 최근 정치권은 대통령이 파면됨에 따라 조기 대선으로 시끄럽습니다. 각 정당이 대선 후보를 내고 선거 운동 중입니다. 그래서 이번 뉴스레터에서는 저작권에 대한 연재를 잠시 쉬고 각 후보들의 AI공약들을 살펴보고 차기 정부가 가져야할 올바른 AI정책에 대해 제언 드리고자 합니다.
또한 얼마 전 카톨릭의 수장인 프란치스코 교황이 선종하셨습니다. 프란치스코 교황은 생전에 많은 업적을 남기셨지만 또 하나 유의미한 변화 중에 하나는 인공지능 기술의 발전에 따라 야기되는 사회의 각 이슈와 가치관의 혼란에 대해서 기준을 잡으려고 했다는 점입니다. 자세한 내용이 궁금하신 부분은 "RenAIssance(romecall.org)"홈페이지를 참조하시기 바랍니다. 현재 해당 프레임워크는 카톨릭이라는 종교적 울타리를 넘어서 다양한 조직이 서명하여 사용하는 기준으로 사용되고 있습니다.
* 녹색당ICT위원회는 함께 활동해나갈 회원분들을 모집하고 있습니다. 회원은 녹색당원과 당원은 아니지만 활동 자체를 지지하고 위원회에서 주최하는 각종 행사에 참여를 원하시는 얼라이(Ally)로 나뉘어집니다. 어느 쪽이든 환영입니다!
이번 달 뉴스레터에서는 설명 가능한 인공지능(eXplainable AI, XAI)에 대해 소개해보고자 합니다. XAI는 현대 인공지능(AI) 기술이 발전하며 다양한 산업과 일상생활 전반에 걸쳐 이용되고 그 영향력을 계속해서 확대되고 있는 상황에서 대두한 개념입니다. 의료 진단, 금융 거래, 자율주행, 국방 시스템 등과 같은 고위험 분야에서는 AI가 인간의 의사결정을 대체하거나 지원하는 상황이 점차 늘어나고 있으나, 이러한 AI 시스템은 대부분 복잡한 딥러닝 또는 앙상블 기반 모델로 구성되어 있어, 그 작동 원리와 의사결정 과정이 명확히 드러나지 않는다는 문제를 갖고 있습니다. 이러한 ‘블랙박스’ 문제는 신뢰성, 안전성, 법적 책임, 윤리적 판단의 측면에서 심각한 우려를 낳고 있기에 AI가 어떻게 특정 결론에 도달했는지를 설명하고 해석할 수 있는 기술인 XAI의 필요성이 점점 커지고 있습니다.