728x90

     산업계뿐 아니라 일상 속에서 인공지능의 사용이 만연해지면서 인공지능의 신뢰도 향상에 대한 윤리적 요구가 증가하고 있다. 기존의 인공지능은 이른바 블랙박스라는 별칭을 가질 만큼 그것이 내린 결론의 구체적 원리나 근거를 이해하는 데 어려움이 있었다. 이에 따라 설명 가능한 인공지능(eXplainable AI: XAI)의 필요성이 제고되었으며, XAI는 인공지능이 특정 결론을 내리기까지의 근거들을 사용자가 이해할 수 있도록 설명해주는 특성을 지닌다. 뿐만 아니라, 인공지능을 활용한 다양한 의사결정 과정에서 그것의 타당성을 검토하고 공정성에 대한 입증을 가능하도록 만들어준다.

     그러나 XAI는 현재 개발된 모든 인공지능 모델에 적용되는 것이 아니다. 현실적으로, 깊은 심층 신경망 기반의 복잡한 모델의 경우 학습 과정 자체가 고비용일 뿐 아니라 그것이 어떻게 특정 결론을 도출했는지 전문가조차도 그 근거를 이해하기 어려운 실정이다. 실제로, 많은 경우 인공지능의 설명 가능성이라는 특성을 취하기 위해 성능을 희생해야 하는 딜레마가 발생한다. 과연 사람들은 상대적으로 예측력이 떨어지더라도 설명 가능한 인공지능을 원할 것인가? 이러한 선택은 그 구체적인 상황이 무엇이냐에 달린 문제인데, 본 포스트에서는 해당 상황을 교육의 장으로 축소해보고자 한다.

     결론부터 말하자면, 교육의 장에서는 인공지능의 설명 가능성이 더 큰 가치를 지닌다고 볼 수 있다. 교육에서 인공지능을 활용하는 경우는 이하 네 가지로 간단히 정리해볼 수 있으며

(1) 인공지능에 대한 윤리 교육

(2) 기술적 측면에서의 인공지능 교육

(3) 학습 진단하기 위한 학습과학 측면에서의 인공지능

(4) 교육 현상을 설명하기 위한 통계적 분석

 

     첫 번째의 경우, XAI는 학생들이 인공지능을 접하고 마주하는 과정에서 그것을 보다 주체적으로 활용할 수 있도록 돕는다. 인간이 인공지능으로부터 근거와 설명을 요구한다는 것은, 인공지능의 결론에 일방적으로 의존하기보다 그것의 원리와 근거를 바탕으로 최종 결정을 인간 자신이 직접 결정하고자 하는 것이다. XAI에 대한 수요는 인간 주체성에 대한 강조라고 이해할 수 있으며, 인공지능을 처음 접하는 학생들에게 인공지능을 신격화하는 태도보다는 주체적으로 취사선택할 수 있는 대상으로 받아들이도록 하는 것이 바람직하다.

     그렇다면, 학습 진단 과정에서 인공지능을 활용하는 경우는 어떠할까? 학습과학에서 가장 경계하는 것 중 하나가, 학생에 대한 인공지능의 예측이 모종의 낙인효과를 초래하거나 학생에 대한 교사의 부적절한 기대(inappropriate expectation)를 유발하는 상황이다. 구성주의의 관점에서 교사는 모든학생이 학습 과정에서 성공할 수 있을 것이라 기대해야 하며 이를 위해 적절한 피드백을 제공해야 하는데, 인공지능의 예측을 근거 없이 신뢰하는 것은 이러한 태도에 상충하게 된다. 교사는 성능 높은 인공지능의 수행 결과를 비판 없이 수용하기보다, 비록 예측력이 상대적으로 저조하더라도 인공지능이 그러한 판단을 내린 근거를 참고하여 더 발전된 스캐폴딩을 제공하거나 수업 계획을 유동적으로 조절하는 데 활용하는 것이 합당할 것이다.

     마지막으로, 교육 현상을 설명하는 교육 통계의 과정에서도 XAI의 가치가 두드러질 수 있다. A. Adadi, M. Berrada(2018)에 의하면 인간은 XAI가 제공하는 설명을 바탕으로 인공지능의 오류를 발견할 수 있으며 이를 통해 교육과 관련한 중요한 결정 상황에서 심각한 오류 등을 방지할 수 있다는 점에서 유의미하다. 그뿐만 아니라, XAI가 교육 현상에 관하여 설명을 제공하게 될 때 연구자는 예기치 않은 새로운 지식을 얻을 수 있으며, 이는 교육 현상 연구를 위한 새로운 재료가 될 수 있다. 이에 따라 교육의 장에서 XAI의 필요성은 분명하며 인공지능의 설명 가능성이 충분한 교육적 가치를 함의한다고 볼 수 있다.

 

 

 

참고 문헌

1) 박다빈,and 신승기. "초등 인공지능 교육을 위한 설명 가능한 인공지능의 교육적 의미 연구." 정보교육학회논문지 25.5 (2021): 803-812.

2) Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE access, 6, 52138-52160.

 

-저작자 표시

-비영리

-변경금지

728x90

'HCI > Idea' 카테고리의 다른 글

학습장애, AI 관련 아이디어  (0) 2022.07.27
헬스 게임 아이디어 (HCI?)  (0) 2022.07.18

+ Recent posts