게시판 뷰
게시판 뷰페이지
생성형 AI, 직장 내 분열과 민감 정보 노출 야기,
작성자 미래교육혁신원 첨단교육센터 김혜영
날짜 2024.02.23
조회수 151
썸네일 /thumbnail.136516.jpg

 안전한 멀티 클라우드 데이터 관리의 글로벌 선도 기업 베리타스테크놀로지스 (Veritas Technologies)가 발표한 새로운 조사보고서 '직장에서의 생성 AI(Generative AI in the workplace)'에 따르면 직장 내 생성형 AI에 대한 혼란으로 인해 직원 간 분열이 발생하는 동시에 민감한 정보가 노출될 위험성이 커지고 있는 것으로 나타났다.

 이 설문조사는 베리타스테크놀로지스의 의뢰로 영국 런던에 본사를 둔 글로벌 시장조사 기관 3Gem이 지난해 12월 1일 부터 12월 13일까지 실시했다. 표본은 호주(1,000명), 브라질(1,000명), 중국(1,000명), 프랑스(1,000명), 독일(1,000명), 일본(1,000명), 싱가포르(500명), 한국(500명), UAE(500명), 영국(2,000명) 및 미국(2,000명)의 직장인 11,500명으로 구성되었다.




보고서 표지 이미지


 조사에 따르면 국내 응답자의 80% 이상(글로벌 평균 71%)이 업무 중에 챗GPT와 같은 생성형 AI 툴을 사용하며 고객 정보, 직원 정보, 회사 재무 정보를 입력하는 등의 위험한 행동을 한 적이 있다고 인정했다.

 국내 응답자의 44%(글로벌 평균 53%)가 직장 동료들이 업무에 AI를 활용하는 것은 불공정한 행위이며, 이러한 행위는 업무 경쟁에서 '부정행위'이라고 생각한다고 답했다. 또한, 국내 응답자의 46%(글로벌 평균 39%)가 AI 툴 사용이 초래하는 가장 큰 위협요인으로 민감한 정보 노출 리스크를 꼽았다.




국내 및 글로벌 직장 내 생성형 AI 툴 활용 현황 비교(출처:보고서)



 업무에 생성 AI를 활용하는 것에 대한 의견과 관계없이 국내 응답자 94%(글로벌 평균 90%)가 사용에 대한 가이드라인과 정책이 중요하다고 답했지만, 현재 직원들에게 의무적으로 사용 지침을 제공하는 곳은 국내 기업의 40%(글로벌 평균 36%)에 불과한 것으로 나타났다.



생성형 AI 가이드라인과 정책의 부재로 인해 조직이 위험에 노출되고 있다.


 국내 직장인의 약 1/3(32%, 글로벌 평균 31%)이 고객 정보, 직원 정보, 회사 재무 정보 등 잠재적으로 민감한 정보를 생성형 AI 툴에 입력한 적이 있다고 인정했다.

 설문 결과에 따르면 국내 직장인의 약 절반(46%, 글로벌 평균39%) 정도가 AI 툴 사용이 민감한 정보를 유출할 수 있다고 생각하며, 32%(글로벌 평균 37%)만이 이로 인해 조직이 데이터 개인정보 보호 규정 준수에 위배될 수 있다고 생각하는 것으로 나타났다.

생성형 AI 가이드라인과 정책의 부재로 많은 기업이 기회를 놓치고 있다.


 국내 직장인의 57%(글로벌 평균 56%)가 생성형 AI 툴을 매주 사용한다고 답한 반면, 18%(글로벌 평균 28%)는 전혀 사용하지 않는다고 답했다.

 이처럼 상당수의 직장인이 생성형 AI를 사용하지 않는 이유는 국내 응답자의 59%(글로벌 평균 57%)만이 소속 조직으로부터 허용되는 것과 허용되지 않는 것에 대한 지침을 받았기 때문일 수 있다.

이는 적어도 두 가지 부정적인 결과를 초래할 수 있다. 첫째, 국내 응답자 중 44%(글로벌 평균 53%)가 생성형 AI를 사용하는 일부 직원들이 그렇지 않은 직원들보다 불공정한 이점을 누린다고 답해 직원 간의 분열과 부정적인 직장 문화가 조성될 가능성이 높아진다.

 둘째, 많은 직장인이 생성형 AI를 적절하게 활용해 업무 효율성을 높일 수 있는 기회를 놓치고 있을 수 있다. 예를 들어, 생성형 AI를 사용하고 있는 직장인들은 정보에 대한 빠른 접근(국내 응답자 55% / 글로벌 평균 48%), 생산성 향상(국내 응답자 35% / 글로벌 평균 40%), 새로운 아이디어 창출(국내 응답자 및 글로벌 평균 모두 34%), 업무상 문제를 해결하기 위한 조언 참고(국내 응답자 및 글로벌 평균 모두 22%) 등의 혜택을 누리고 있다고 응답했다.

직원들은 생성형 AI 가이드라인과 정책을 원하고 있다.

 국내 직원의 4분의 3 이상(80%, 글로벌 평균 77%)이 조직 내 생성형 AI 사용에 대한 가이드라인, 정책 또는 교육을 제공받기를 원한다고 답했다. 가장 큰 이유로는 직원들이 생성형 AI가 비즈니스에 미칠 수 있는 위험을 줄이기 위해서(국내 응답자 48%/글로벌 평균 43%), 적절한 툴 사용법을 배우기 위해서(국내 응답자 40%/글로벌 평균 68%), 직장에서 공평한 경쟁을 도모하기 위해서(국내 응답자 28%/글로벌 평균 25%) 등이었다.

 이상훈 지사장은 설문결과의 메시지는 분명하다며, “생성형 AI의 적절한 사용에 대한 지침과 정책을 신중하게 개발하고 직원들에게 명확하게 전달해야 한다. 그리고 이를 올바른 데이터 규정 준수 및 거버넌스 툴 세트와 결합해 그 이행과 지속적인 활동을 모니터링하고 관리하는 것이 중요하다”고 말했다. 그는 또한 “직원들은 이로 인해 직무 만족도가 상승할 것이고 조직은 위험 요인의 증가 없이 기술의 혜택을 누릴 것"이라고 강조했다.

 베리타스코리아 이상훈 지사장은 "생성형 AI 활용 방법이나 활용 여부에 대한 조직 내 지침 없이 일부 직원들은 잠재적으로 조직을 위험에 처하게 할 수 있는 방식으로 AI를 활용하고 있으며, 다른 직원들은 아예 활용을 주저하고 이를 적극 활용하고 있는 동료들을 원망하기도 한다”고 말했다.

 또한 이 지사장은 “두 상황 모두 이상적이지 않으며 조직은 규정 준수 위반과 같은 문제에 직면하거나 전체 인력의 효율성을 높일 수 있는 기회를 놓칠 수도 있다”며, ”이와 같은 두 가지 문제 모두 무엇이 허용되고 무엇이 허용되지 않는지에 대한 효과적인 생성형 AI 가이드라인과 정책을 제공함으로써 해결할 수 있다"고 덧붙였다.


출처: 인공지능 신문 (2024.02.23일자)