2024.09.11
13
[국가지식재산위원회] 초거대 인공지능 등장에 따른 지식 재산 쟁점 대응방안 연구 출처: https://ipkorea.go.kr/board/articleDetail.do?bbsId=BBSMSTR_000000000009&nttId=20656&pageIndex=1&searchCnd=0&category=POLICY_RESEARCH [연구보고서 요약] 1. 서론 - 2022년 GPT-3.5를 기반으로 한 Chat GPT가 등장하면서 본격적인 초거대 인공지능(AI) 시대가 개막하였음. Chat GPT의 등장은 기업 또는 전문 영역에서 활용되던 AI를 일상 모든 접점으로 본격 확장하는 계기가 되었음. 장차 AI는 경제·사회 전반의 파괴적 혁신을 이끌 것으로 기대 - 현재의 AI는 범용 인공지능(AGI), 초인공지능(ASI)으로 발전할 것이며, 전문가들은 인간보다 더 높은 수준을 가진 AI가 예상보다도 빠르게 등장할 것이라고 전망하고 있음 - AI의 발달은 기술적 차원을 넘어 인문, 사회 등 모든 영역에 걸친 패러다임의 변화를 초래하고 있으며, 이에 국가적 차원의 대응을 필요로 하고 있음. AI 강국들은 정부·학계·민간이 상호 연계된 광범위한 AI 거버넌스를 구축하고, AI 전략을 추진함으로써 차세대 기술패권국가로의 도약을 위한 기반을 마련하고 있음 - AI와 지식재산의 관계를 살펴보면, 최근 들어 초거대 AI 또는 생성형 AI가 지식재산 영역에 미칠 수 있는 영향과 함께, 관련해서 발생할 수 있는 구체적인 질문들이 제시되고 있음. 이에 디지털 시대의 창작물 보호를 위한 모범사례를 확립하고, 새로운 기술이 지식재산 시스템에 가져온 과제를 탐색해나갈 필요가 있음 - 약한 AI에 대응해왔던 선행 연구의 범위를 확장하고 초거대 AI 및 생성형 AI에 대응하여 지식재산 전반에 걸친 새로운 문제인식이 필요함 - 최신의 논의와 국제적인 동향을 통하여 초거대 AI 시대에 당면한 지식재산 과제들을 식별하고 대응할 수 있는 다양한 방법을 검토하는 한편, 지식재산의 유형별, 창작 주체별 서로 상이한 문제인식이 있음을 인식하여 이해관계자의 다양한 의견을 수렴할 필요성이 있음 2. 초거대 AI의 영향력 분석 - 초거대 AI는 범용성, 확장성을 기반으로 AI 생태계를 만들어가고 있음. 대형언어모델, GAN, VAE 등의 기술을 토대로 더욱 효율적인 학습과 다양한 모달리티 결합 방식을 통해 산업의 여러 분야에서 AI 모델을 접목시키는 방식으로 발전하고 있음 - 글로벌 빅테크 기업들은 생성형 AI를 기반으로 한 제품, 서비스, 소프트웨어를 활발히 개발 중이며 후속 모델의 출시로 기술은 점점 더 고도화·정교화되어 가고 있음 - AI 분야의 특허출원도 꾸준히 증가하고 있음. 특히 지난 10년(2014~2024)동안 생성형 AI의 특허계열 수가 폭발적으로 증가하였음. 우리나라의 생성형 AI 분야에서 세계 5위권 내의 출원을 하고 있으며, 미국과 중국의 출원이 압도적인 상황임 - 초거대 AI 기술은 공공 서비스, 헬스케어, 금융 및 리걸테크, 모빌리티, 생활밀착형 서비스 등 전문 영역 외에 일반 대중에 영향을 미칠 수 있는 다양한 영역으로 확장되는 추세 3. 초거대 AI 관련 국내외 동향 - 우리나라는 산업진흥과 새로운 질서 마련의 양 측면을 고려한 전략을 수립해나가고 있으며, 이에 부처별 특성에 맞는 초거대 AI 전략·정책 등을 시행하는 중 - (초거대 AI 경쟁력 강화방안) 초거대 AI 개발 고도화를 지원하는 기술·산업·인프라 확충, 민간·공공의 초거대 AI 융합 등 초거대 AI 혁신 생태계를 조성, 범국가 AI 혁신 제도 및 문화의 정착 - (디지털 권리장전) 민관이 모여 우리 사회가 함께 추구해나가야 할 지향점과 구체적인 이행방안을 논의, 디지털 심화로 발생할 수 있는 경제·사회 전반의 이슈를 포괄, 디지털 심화시대에 고려해야하는 주체별 권리·책임을 포괄하여 균형있게 제시하고 있으며, 디지털 자산의 보호 측면에서 지식재산과의 연계점이 존재 - (새로운 디지털 질서 정립 추진 계획) 「디지털 권리장전」의 철학과 5대 원칙을 토대로 법제도 개선, 연구개발, 시범사업 등 20대 정책과제를 발굴하며, 국민의 관심·파급성·시급성이 높은 8대 핵심과제를 중심으로 사회적 공론화, 심층 정책연구·자문, 글로벌 협력을 집중 지원 - 인공지능 통합법의 필요성에 따라 관련 법안들이 발의되고 있어 입법 과정에서 발생하는 지식재산 문제 등을 확인할 필요성이 있음. 또한 지식재산 분야의 개별법에서도 기술발전에 상응한 개정 수요들이 존재함 - (인공지능 통합법안) AI 기술 개발 관련 사업 지원·추진 및 관련 시책의 수립, 제도 개선과 관련해서는 인공지능법의 주관부처 외에도 타 부처와의 업무 영역이 중복되거나, 관련 업무 수행이 가능한 사항들이 포함되어 있으며, 특히 지식재산과 관련한 내용들이 포함되어 있을 수 있는바 지속 검토 및 대응의 필요성이 있음 - (저작권법 개정안) AI 학습을 위한 저작물의 이용에 대한 명확한 규정마련을 위한 저작권 제한사유의 도입 논의 등이 이루어지고 있음 - (콘텐츠산업진흥법 개정안) 생성형 AI에 의하여 만들어진 결과물에 대하여 ‘표시’할 필요성이 있다는 의견이 다양하게 제시되고 있음. 이에 콘텐츠의 관점에서 AI 기술을 이용하여 제작된 콘텐츠를 표시하도록 하고자 함 - 국제사회에서도 초거대·생성형 AI에 대응하여 다양한 법, 전략, 정책 등을 제시하고 있으며 새로운 판결이나 국제협력들도 이어지고 있음 - 생성형 AI와 관련한 지식재산의 각 쟁점에 대하여, 대부분의 국가에서 다양한 가능성을 염두하여 연구를 전개하고 있음을 확인 - 미국 등을 필두로 하여 2024년에 주요한 연구결과 등이 제시될 것이 예정되어 있는 바, 국제적인 동향을 기민하게 추적하며, 우리나라 역시 논의의 흐름에 발맞춰나갈 필요성이 요청 4. 초거대 AI 시대의 지식재산의 방향과 과제 - 생성형 AI가 잠재적으로 저작권 침해에 대한 집중적인 논의를 촉발시키고 있음에 관련한 후속과제와 그 밖의 지식재산 전반에 대하여 논의가 필요한 과제들을 제시함 - (생성형 AI와 저작권 제도 정비) 현재 추진되고 있는 전략 외에도 다양한 정책적 고려가 필요함. 생성형 AI와 관련한 국외의 저작권 법제 및 정책 동향을 지속적으로 검토하며, 특히 학습데이터 및 공정이용과 관련한 주요 소송들의 추이를 지켜볼 필요가 있음 - (생성형 AI와 그 밖의 지식재산 문제) 생성형 AI 모델, 생성형 AI를 통한 발명, 학습용 데이터와 산출물 등의 논의와 함께 정책적·경제학적 검토를 연계하여 과제들을 도출할 수 있음 생성형 AI 모델의 효과적인 보호를 위한 지식재산권 유형별 방법론 검토 생성형 AI로 인한 특허심사지침 및 제도 정비, 심사 전용 Clean AI의 개발, 장기적으로 생성형 AI에 의하여 특허제도의 원칙이나 요건 등이 변경되어야 하는 지에 대한 고찰 데이터 학습과 저작권자가 상생할 수 있는 방법에 대한 고찰 : 생성형 AI 기술에 적합한 TDM의 원칙, 저작권자에 대한 적절한 보상 방안, 특정 계약을 통한 해결방안 등 AI 산업재산권 확보를 위한 신특허분류의 장벽 완화, 관납료 혜택 등 생성형 AI의 산출물에서 인간의 기여율을 평가할 수 있는 방법론 및 제도 설계 방안 - 생성형 AI의 등장과 기술발전으로 인해 관점의 변화나 재논의가 필요한 사항들이 존재함 - (데이터 학습과 저작권 제한) 생성형 AI 기술발달로 TDM에 대한 재논의 필요성 강화, 다양한 방법론을 전제로 여러 이해관계자의 의견을 수렴해나갈 필요가 있음 - (AI 산출물에 대한 표시) 투명성에 관한 국제 논의와 공통적인 공감대를 기반으로 하되, 표시 관련 구체적인 기준 마련을 위해 다양한 이해관계자의 현실적인 의견 수렴 필요 - (생성형 AI와 퍼블리시티권) 생성형 AI 기술발전으로 퍼블리시티권이 모든 사람의 신원을 보호하는 중요한 도구로 변화. 딥페이크 기술, 스타일 전환, 웹스크래핑, 개인식별정보등과 연계하여 퍼블리시티권의 새로운 과제를 확인해 나갈 필요가 있음 5. 결론 - 세계 각국은 그 나라의 AI 기술과 산업을 바라보는 시각에 맞추어 제도를 설계하고 있음. 우리나라의 현재 위기를 극복할 수 있는 방법이 AI의 산업발전에 달려있음을 인식하고 이에 맞는 방향성을 설계할 필요가 있음 - AI 산업발전의 측면이 강조될 경우, 상대적으로 권리자의 보호 등이 약화될 우려가 있음. 이러한 측면을 경계하고 조율할 수 있는 것이 지식재산의 역할일 것임. 창작을 보호하고자 하는 지식재산의 기본적인 원리에 따라, AI 기술발전에 상응하는 합리적이고 효과적인 지식재산 제도를 설계하고 고민할 필요가 있음. 이러한 지점에서 AI 관련 기술이 발전할수록 지식재산 분야에서의 중요성이 더욱 커지고 있음 - 초거대 AI 시대에 대응한 지식재산 분야의 개선 과제가 확인되고 있으며, AI의 효용을 이해 하고 이를 통해 새로운 효용과 이익을 창출할 수 있는 지식재산의 제도 설계가 필요 - AI 등장 초기부터 논의되고 있던 문제들의 경우, 기술의 발전에 따라 과거와 다른 고려가 필요한 경우들이 생겨나고 있음. 이에 해당 쟁점들 역시 논의를 종결할 것이 아니라 계속적으로 살펴볼 필요가 있음 - 주류적인 논의 외에 다양한 지식재산 분야의 쟁점에 대한 관심도 필요함
2024.07.22
47
출처: 개인정보보호위원회 보도자료(2024.07.17.) https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS074&mCode=C020010000&nttId=10362 개인정보보호위원회 [보도자료](2024.07.17.) 인공지능(AI) 개발·서비스에 이용되는 ‘공개 데이터’ 처리 기준 제시 - 개인정보위, 「인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서」 공개 - 기업의 불확실성 해소 및 국민의 프라이버시 보호 효과 기대 생성형 인공지능(AI) 모델 개발 시 활용되는 ‘인터넷상 공개 데이터’를 안전하게 처리할 수 있는 정부 차원의 기준이 나왔다. 개인정보보호위원회(위원장 고학수, 이하 ‘개인정보위’)는 인공지능(AI) 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 「인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서」(이하 ‘안내서’)를 마련해 공개했다. 공개 데이터는 인터넷상 누구나 합법적으로 접근할 수 있는 데이터로서, 챗지피티(ChatGPT) 등 생성형 인공지능(AI)을 개발하기 위한 학습데이터의 핵심원료로 쓰인다. 인공지능(AI) 기업들은 커먼크롤*(common crawl), 위키백과(wikipedia), 블로그, 웹사이트 등에 있는 공개 데이터를 웹 스크래핑** 등의 방식으로 수집해 인공지능(AI) 학습데이터로 활용하고 있다. * 인터넷상의 데이터를 자동으로 수집하여 누구나 접근하고 분석할 수 있도록 저장·유지·관리하는 공개 저장소(http://commoncrawl.org) ** 웹사이트에서 필요한 데이터를 자동으로 추출하는 기법 이러한 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보(‘공개된 개인정보’)가 포함될 수 있어, 국민의 프라이버시가 침해될 우려가 크다. 하지만 현행 개인정보 보호법(이하 ‘보호법’)에는 이러한 공개된 개인정보 처리에 적용될 수 있는 명확한 기준이 없다. 예를 들어, 인공지능(AI) 학습에 공개 데이터가 대규모로 처리되는 상황에서 현행 보호법 상의 정보주체 개별 동의나 계약 체결 등의 조항을 적용하는 것은 사실상 어렵다. 또한 인공지능(AI) 학습이 전통적인 개인정보 처리방식과 다르다 보니, 보호법상의 안전성 확보조치 등의 규정도 그대로 적용하는 것에 일정한 한계가 존재했다. 이에 개인정보위는 공개된 개인정보 수집‧활용의 법적기준을 명확화하고 인공지능(AI) 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지에 대해 기업이 참고할 수 있는 최소한의 기준을 제시하는 안내서를 마련하게 되었다고 밝혔다. 공개된 개인정보를 활용하는 기업들의 개인정보 침해 이슈를 최소화하는 동시에 법적 불확실성을 해소해 기업의 혁신성장을 돕겠다는 취지이다. 개인정보위는 지난해 8월 「인공지능(AI) 시대 안전한 개인정보 활용 정책방향」을 발표한 이후 「인공지능(AI) 프라이버시 민·관 정책협의회*」를 중심으로 안내서에 관한 논의를 진행하는 한편, 학계·산업계·시민단체와도 소통하며 광범위한 의견수렴을 병행하였다. * 학계, 법조계, 산업계, 시민단체 등 인공지능(AI) 분야 차세대 전문가 30명으로 구성, 3개 분과(데이터 처리기준, 리스크 평가, 투명성 확보) 운영 특히, 유럽연합(EU), 미국 등 인공지능(AI) 혁신과 안전의 균형을 꾀하는 해외 주요국에서도 최근 공개 데이터 처리를 포함한 인공지능(AI)·데이터 처리 전반에 대하여 개인정보 보호 규율체계를 형성해나가고 있는 점을 고려해, 국제적으로 상호운용성 있는 기준을 마련하는 데 중점을 두었다. < 참고: 해외 정책 동향 > ▸(영국) 웹 스크래핑을 통해 수집한 데이터를 생성형 인공지능(AI) 학습에 사용하는 것에 ‘정당한 이익’이 인정될 수 있음을 밝히고 의견수렴 중(’24.1.~) ▸(프랑스) 인공지능(AI) 학습 목적으로 개인정보 처리시 ’정당한 이익‘이 인정되기 위한 기준 제시(‘23.10.~) ▸(미국) 공개된 정보를 개인정보 범위에서 제외하는 연방 개인정보보호법 제정안(APRA) 발의(’24.4.) 먼저, 보호법 제15조에 따른 ‘정당한 이익’ 조항*에 의해 공개된 개인정보를 인공지능(AI) 학습·서비스 개발에 활용할 수 있다는 점을 분명히 했다. * (보호법 제15조제1항제6호) 개인정보처리자의 정당한 이익을 달성하기 위하여 필요한 경우로서 명백하게 정보주체의 권리보다 우선하는 경우. 이 경우 개인정보처리자의 정당한 이익과 상당한 관련이 있고 합리적인 범위를 초과하지 아니하는 경우에 한한다. 또한 이러한 ‘정당한 이익’ 조항이 적용되기 위해서는, 인공지능(AI) 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족하여야 한다. 개인정보위는 이번 안내서를 통해 세 가지 요건의 내용과 적용사례도 안내했다. 따라서, ‘정당한 이익’ 조항의 합리적 해석기준을 마련하는 것은 유럽연합 일반 개인정보보호법(EU GDPR*)이나 최근 인공지능(AI) 안전성 규범 논의 등 글로벌 스탠다드와의 상호 운용성을 높이게 되는 측면이 있다. * 영국, 프랑스 등 유럽연합(EU) 주요국도 ‘정당한 이익’이 공개된 개인정보의 처리 근거가 될 수 있다는 입장 또한 개인정보위는 안내서를 통해 인공지능(AI) 기업이 ‘정당한 이익’을 근거로 공개된 개인정보를 처리하기 위해 고려할 수 있는 기술적‧관리적 안전성 확보조치와 정보주체 권리보장 방안을 구체적으로 안내했다. 다만, 빠른 인공지능(AI) 기술변화 등을 고려하여 세부적 안전조치 등을 유연하게 도입·시행할 수 있도록 했다. 인공지능(AI) 기업은 모든 안전조치를 의무적으로 시행해야 하는 것은 아니며, 안내서에 제시된 여러 안전조치의 순기능과 인공지능(AI) 성능저하, 편향성 등 부작용과, 기술 성숙도를 고려하여 기업의 특성에 맞는 「안전조치의 최적 조합」을 스스로 선택하여 이행할 수 있다. 개인정보위는 ’24.3. 인공지능(AI) 사전실태점검※을 통해 파악한 주요 대규모 언어모델(LLM) 사업자의 실제 안전조치 이행사례를 안내해, 기업이 「최적 조합」을 판단하는 데 참고할 수 있도록 하였다. ※ 개인정보위는 대규모 언어모델(LLM) 사업자의 공개된 개인정보 처리 과정에서 드러난 중요한 문제점에 대해 안전조치를 강화할 것을 개선권고한 바 있음(’24.3월, 개인정보위 의결) - 개인정보위가 주요 개인식별정보가 노출된 도메인 정보(URL)*를 주기적으로 탐지하여 인공지능(AI) 기업에 제공하면, 기업이 해당 도메인 정보(URL)를 학습데이터 수집에서 배제할 것을 권고함 * 개인정보위와 한국인터넷진흥원(KISA)은 공공·민간 홈페이지를 대상으로 주민등록번호, 여권번호, 운전면허번호 등 보호법 상 노출이 금지된 개인정보의 노출 및 불법적 유통을 탐지하여 삭제하고 있음(’23년 기준 총 20,999개 페이지 탐지) 마지막으로, 인공지능(AI) 개발을 위한 학습데이터 처리와 관련한 인공지능(AI) 기업과 개인정보보호책임자(CPO)의 역할을 강조하였다. 개인정보보호책임자(CPO)를 구심점으로 하는 ‘(가칭)인공지능(AI) 프라이버시 담당조직’을 자율적으로 구성·운영하고 안내서에 따른 기준 충족 여부를 평가하여 그 근거를 작성‧보관하도록 권고하였다. 인공지능(AI) 성능 개선 등 중대한 기술적 변경이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하고, 개인정보 유·노출 등 침해사고 발생 시 신속한 권리구제 방안도 마련하도록 했다. 안내서는 추후 개인정보 관련 법령 제·개정, 인공지능(AI) 기술발전 추이, 해외 규제정비 동향 등을 고려해 지속 업데이트될 예정이다. 아울러, 공개된 개인정보와 함께 인공지능(AI) 학습데이터의 주요 원천을 이루는 이용자 개인정보의 적법한 처리 근거와 기준 등에 대해서는 학계, 산업계, 시민단체 등의 의견수렴을 거쳐 구체화해 나갈 예정이다. 이 밖에 개인정보위는 사전적정성 검토제, 규제샌드박스, 개인정보 안심구역 등 혁신지원제도를 통해 인공지능(AI) 기업과 수시로 소통하면서 기술발전과 시장상황을 모니터링하고, 이를 통해 축적된 사례와 경험을 토대로 보호법을 인공지능(AI) 시대에 맞게 정비하는 작업도 추진할 예정이다. 이번 안내서 관련 논의에 참여한 김병필 카이스트 교수(민·관 정책협의회 데이터 처리기준 분과장)는 “본 안내서는 개인정보를 충실히 보호하면서도 인공지능(AI) 혁신을 장려하는 적정한 절충점을 찾고자 하는 노력의 일환이다. 신뢰할 수 있는 인공지능(AI) 개발, 이용을 위한 좋은 참고 자료가 될 것이라 생각한다”면서, “다만, 인공지능(AI) 기술이 빠르게 변화하는 만큼 향후 본 안내서에 포함된 내용도 지속적으로 발전해 나갈 것이라는 점을 염두에 두었으면 한다”고 강조했다. 민·관 정책협의회의 공동의장인 배경훈 엘지 에이아이 연구원장은 “이번 안내서 공개는 인공지능(AI) 기술 발전과 개인 데이터 보호를 동시에 달성하기 위한 중요한 진전이자 첫걸음”이라며, “공개 데이터에서 개인정보를 안전하게 처리할 수 있도록 기준을 제공함으로써 인공지능(AI) 기술 개발에 있어 법적 불확실성이 낮아져 안전하게 데이터를 활용할 수 있게 되었고, 이는 곧 국민들이 신뢰할 수 있는 데이터 처리 환경에서 인공지능(AI) 기술의 혜택을 누릴 수 있는 기반이 될 것”이라고 전망했다. 고학수 개인정보위 위원장은 “인공지능(AI) 기술 진보가 빠르게 이루어지고 있지만 인공지능(AI) 개발의 핵심 관건인 공개 데이터 학습이 보호법에 비추어 적법하고 안전한지 여부는 공백인 상황이었다”면서 “이번 안내서를 통해 국민이 신뢰하는 인공지능(AI)·데이터 처리 관행을 기업 스스로 만들어 나가고 이렇게 축적된 모범사례가 안내서에 지속적으로 반영될 수 있기를 기대한다”고 말했다. * 기타 자세한 내용은 첨부파일을 확인해주시기 바랍니다. - 담당자 : 인공지능프라이버시팀 구민주(02-2100-3073)
2024.07.22
42
출처: 경북연구원 이슈리포트(GDI Issue Report 제23호), https://gdi.re.kr/board/b1530000?req=view&postid=240611-356B290D-C608-46C3-A800-8461BCA194FA [지역 차원의 무탄소전원 공급 전략] 생성형 AI는 막대한 전력을 소비하고 데이터 처리 과정에서 많은 이산화탄소를 배출한다. 정부는 최근 AI 시대에 대비하여 원자력 중심의 무탄소전원 공급 전략을 발표하며 빠르게 대응하고 있다. 국내 최대 원전 집적지인 경북은 지역 차원의 무탄소전원 공급 전략 구체화가 시급하다. ▶ 생성형 AI의 전력소비량과 이산화탄소 배출량 ▶ AI 시대 본격화에 대비한 정부의 전력공급 전략 ▶ 경북의 무탄소전원 전략 구체화 필요
2024.06.28
67
[과학기술정책연구원 보도자료(2024.06.20.)] 출처: https://www.stepi.re.kr/site/stepiko/ex/bbs/View.do?bcIdx=40439&cbIdx=1205 ‘보이지 않는 안보위협’, 해저케이블 공급망 정책 조속히 정비해야... - ‘안전한’데이터 통신망의 기반인 해저케이블 공급망 안보위협 대비시급 - - STEPI, 「과학기술정책 Brief」 Vol.28 발간 - □ 과학기술정책연구원(이하 STEPI, 원장 직무 대행 양승우)은 미국, EU, 중국, 호주 등 주요국의 해저케이블 공급망에 대한 통제 및 개입 등 전략경쟁 분석을 통해 안보적 연결성 중심 해저케이블 공급망 복원력 강화 등 한국적 시사점을 제시한 「과학기술정책 Brief」 Vol.28를 발간함 □ 생성형 AI 발전 및 미중 전략경쟁으로 전략자산인 ‘데이터’ 관리 필요성과 데이터 흐름(flow)에 대한 ‘연결성’ 확보 중요성 증가 ○ ‘기술적 연결성’과 ‘안보적 연결성’ 중심으로 국가들의 디지털 인프라 네트워크 확장 경쟁 심화 - 디지털 인프라에 대한 보호 및 네트워크(망) 확장에 대해 특정 주체의 개입을 배제하기 시작하는 ‘안보적 연결성’에 대한 위협 이슈 대두 - 특정 국가 및 기업에 의한 의도적인 데이터 탈취를 막고 ‘안전한’ 데이터 통신망을 유지 및 확장을 위한 디지털 인프라 네트워크(망) 구축 시급 ○ ‘안전한’ 데이터 통신망의 기반인 해저케이블 공급망 안보위협 증가 - 상호의존의 무기화(weaponized interdependence) 시대 해저케이블 공급망 가치사슬에서 부가가치를 생산 못하면 국제정세에 따라 공급망 안보 위협이 증가하며 데이터 안보 위협도 증가 □ 최근 안보적 맥락에서 의도적인 배제를 목표로 해저케이블 공급망 및 가치사슬 재조정 ○ 국가 간 해저케이블 공급망에 대한 통제 및 의도적으로 배제하는 전략경쟁 심화 ○ 각 국가의 해저케이블 공급망 개입 증가 추세 - (미국) LA-홍콩 경유 케이블 사업 (PLCN) 홍콩 제외 및 SeaMeWe-6사업 공급 담당 중국 HMN사에서 미국 SubCom사로 변경 - (호주) 중국 HMN사의 솔로몬제도와 호주 해저케이블 연결에 대한 안보적 고려로 배제 - (EU) 해저케이블을 통한 데이터의 기밀성(confidentiality), 무결성(integrity) 및 접근성(availability)을 고려하는 규정 강화 □ AI 기반 디지털 전환 시기 해저케이블의 새로운 안보 위협과 한국의 취약점 ○ 생성형 AI의 발전으로 방대한 데이터를 수집 후 분석 및 가공이 용이 해짐 ○ 해저케이블 공급망에 대한 국가들의 안보화, 의도화된 잠재적 적성국 배제, 표준 경쟁 심화 등으로 한국 디지털 인프라 네트워크의 안보적 연결성 위협 증가 ○ 한국 디지털 인프라 네트워크의 강건성(robustness) 및 복원력(resilience) 취약 - 글로벌 디지털 인프라 망의 연결성이 소수의 연결점에 의존 및 통합적인 전략 부재 - 해저케이블 연결성에는 기술 및 안보 부문이 복합적으로 발생하지만 통합적으로 관리하는 정책 거버넌스가 부재 □ 글로벌 해저케이블 공급망을 통한 안전한 데이터 통신망을 위해 디지털 인프라 네트워크(망) 복원력 강화 전략 시급 ○ 전략적 탈안보화로 의존성 높은 분야에 대한 과잉안보화 방지 및 전략적 자율성 확보 ○ 데이터 안보 의제 선도를 위한 태평양 및 아프리카 지역 협력 강화 및 일본과 적극 협력 필요 - 해저케이블 가치사슬 중 공급망 지배력 낮고 의존도 높은 가치인 케이블 유지보수 및 운영 부분에 대한 지원체계 마련 시급 □ 시사점 ○ 생성형 AI 발전과 해저케이블 공급망 안보 위협 다변화, 전략적 자율성 확보 및 의제 선도 시급 ○ 해저케이블 공급망 전략적 탈안보화를 통한 인도·태평양 지역 기술적 연결성 확보 시급 - 인도·태평양 지역 국가들은 기술적으로 온전한 디지털 인프라 네트워크 부재로 기술적 연결성 협력 대상임 ○ 정부·기업 간 협력을 통해 기술 인프라 확장을 위한 국내 환경 변화 시급 □ 조원선 부연구위원(미래전략연구단)은 “생성형 AI의 발전과 데이터의 전략자산화로 디지털 인프라 네트워크 경쟁이 심화된 상황에서, 한국의 해저케이블 공급망 안보가 취약하다”라면서 “한국은 전략적으로 탈안보화하여 연결성을 확보하고 국내 해저케이블 기업의 지원체계를 정비하며 강한 디지털 인프라 망 연결성이 있는 국가인 일본과 협력이 필요하다”라고 주장함
2024.05.28
178
생성형 AI 결과물에 대한 기대와 현실 2024-05-08 Mary Branscombe 이 글은 IDG의 아티클을 전재하여 제공함을 알려 드립니다. [원문보기] : https://www.ciokorea.com/news/299689#csidx8e62485552af1568227cc106f989825 성공적인 생성형 AI를 위해 맞춤형 키보드를 구입하거나, 새로운 최고 AI 책임자를 채용해야 할까요? 생성형 AI에 대한 큰 기대와 투자 관점에서 성과를 어떻게 바라보고 있을까요? 생성형 AI는 머신러닝(ML) 모델에서부터 다양한 영역에서 사용할 수 있는 플랫폼이 될 가능성을 제시합니다. 그러나 생성형 AI 자체가 문제 해결에 적합한지, 사용자들이 생성형 AI를 효과적으로 활용하는 방법을 알고 있는지 검증해야 합니다. 최근 PageDuty의 연구에 따르면, 많은 사람들이 생성형 AI 툴을 개인 및 업무용으로 특정 업무나 부서 단위에서 정기적으로 사용하고 있으며, Fortune 1000대 기업 중 98%가 생성형 AI를 실험하고 있는 것으로 나타났습니다. 그러나 이제 많은 기업이 배포에 앞서 신중한 접근 방식을 취하고 있는 것으로 보입니다. 예를 들어, Foundry의 ‘2023 AI Priorities Study’에서 IT 의사결정권자의 4분의 1이 생성형 AI 기술을 시험하고 있지만, 배포까지 이어진 비율은 20%에 불과했습니다. CCS Insight의 ‘Employee Technology and Workplace Transformation Survey’에 참여한 고위급 리더들은 2023년 말까지 18%가 전체 직원에 생성형 AI를 배포했으며, 22%는 배포할 준비가 되어 있다고 응답했습니다. Intel의 ‘2023 ML Insider’ 설문조사에서 AI 전문가와 같은 IT 팀들의 응답에 따르면, 기업의 10%만이 2023년에 생성형 AI 솔루션을 프로덕션에 도입한 것으로 나타났습니다. 파일럿 단계 생성형 AI에 대한 투자나 파일럿, 계획을 가진 기업은 많지만, 생산성 향상이나 ROI의 구체적인 내용에 대해 이야기하는 기업은 상대적으로 적습니다. 예를 들어, 골드만삭스, IHG, 메르세데스 벤츠와 같은 구글 고객들이 최근 ‘Google Cloud Next’ 컨퍼런스에서 Gemini 생성형 AI 툴을 사용한 사례에 대해 발표했지만, 대개 배포가 아닌 파일럿 단계에 있는 것으로 나타났습니다. 물론 단순한 실험 수준을 넘어선 파일럿일 수 있습니다. McKinsey는 산업디자인팀이 LLM 기반의 리서치 요약 기능과 AI 이미지 생성 기능을 사용하는 경우, 제품 개발 주기를 70% 이상 단축할 수 있다고 보고합니다. 그러나 이러한 디자인팀이 현실적이고 실제로 생산할 수 있는 제품을 만들기 위해서는 생성형 AI 결과물에 대한 평가와 조작을 수행해야 하며, 다시 생성형 AI 정책을 수립하고 직원을 교육하며 파일럿 계획을 실행하는 것이 좋습니다. 화장품 기업 Estée Lauder는 고객 인사이트, 행동 연구 및 시장 동향에 대해 훈련을 받은 내부 챗봇과 같은 파일럿 프로젝트의 가치를 확인하고 이를 통해 비즈니스에 보다 광범위하게 사용할 수 있도록 하면서, 실제로는 이 가치를 제공하는 방법을 계속 연구하고 있습니다. Microsoft는 직원들이 Microsoft 365 Copilot 기반의 생성형 AI 툴을 통해 상당한 가치를 얻고 있다고 강조합니다. 현대 업무 및 비즈니스 애플리케이션 부문 CVP인 Jared Spataro는 최고의 사용자들은 한 달에 10시간 이상 절약하고 있다면서, Microsoft 응용 프로그램 및 Copilot 사용자의 70%는 이를 통해 생산성이 향상하고 작업 속도가 최대 1/3 더 빨라졌다고 전했습니다. Forrester의 수석 애널리스트 JP Gownder는 Microsoft 365 Copilot에 대해 한 달에 5시간 정도의 절약이 일반적이라고 분석합니다. 일본의 대형광고 대행사인 Dentsu는 Microsoft 365 Copilot에 매우 열광하며 직원들이 하루에 최대 30분의 작업 시간을 절약할 수 있다고 주장합니다. 지금까지 Copilot 도입은 ‘포켓’이라고 부르는 경향이 있는데, 이는 McKinsey가 대부분의 생성형 AI 배포가 마케팅 및 영업, 서비스 및 지원, 제품 개발 등 특정 부서에서 발생하고 있다고 보고한 방식과 일치합니다. McKinsey 보고서에 따르면, 설문조사에 참여한 통신업체들은 다른 업계와 마찬가지로 낙관적인 가운데에서도 효과 범위가 제한되어 있었습니다. 대다수는 생성형 AI를 통해 비용을 절감했다고 응답했으며, 콜센터 상담원의 생산성이 증가하고 개인화된 콘텐츠를 통해 마케팅 전환율이 개선된 것으로 나타났습니다. 유기적 성장 Microsoft의 초기 테스트 고객 중 일부는 이미 파일럿 단계에서 광범위한 배포 단계로 전환했습니다. 글로벌 로펌 Clifford Chance는 초기 Microsoft 365 Copilot 체험판을 진행했으며, 현재 Azure OpenAI를 기반으로 구축한 맞춤형 AI 툴인 ‘Clifford Chance Assist’와 함께 이를 전체 직원에게 배포하고 있습니다. 이 회사는 자격을 갖춘 변호사가 생성형 AI의 모든 법적 결과물에 명확하게 라벨링하고 확인한다는 점에 주의를 기울이고 있지만, 주요 이점은 실시간 기록, 회의 요약, 암묵적인 약속 및 합의 등 지식 근로자의 생산성 향상입니다. 생성형 AI는 생산성을 높이고, 시간을 절약하며, 훌륭한 인간 비서가 될 수 있는 놀라운 기술입니다. 하지만, 이는 지난 40년 동안 컴퓨팅 분야에서 출시해 온 툴과는 다릅니다. 진정한 성공을 거두려면 배워야 할 특성이 있습니다. 기업의 AI 지수를 평가하기 위해 다음과 같은 일련의 질문을 제시합니다. AI와 프롬프트 엔지니어링의 작동 방식에 대한 기본적인 이해가 있는가? 교육을 받은 적이 있는가? 이러한 것들을 배울 수 있다는 것에 대해 자신감이 있는가? 참여하고자 하는 의욕이 있는가? 무엇이 잘못될 수 있는지, 그리고 어떻게 하면 이러한 것들을 윤리적으로 사용할 수 있는지 알고 있는가? 또 다른 문제로, Microsoft 365 Copilot을 검토하는 거의 모든 주요 기업은 직원 교육에 10시간이 아닌, 1시간만 계획하고 있습니다. 이것은 핵심 기술로, 교육에 투자하지 않으면 손해를 볼 수 있기 때문에 교육에 투자해야 합니다. 이는 생성형 AI 배포가 성공하고 Photoshop에서 Zoom에 이르기까지 상용 소프트웨어에서 일반적으로 사용하는 생성형 AI 기능과 자연어 인터페이스를 최대한 활용하는 데 핵심입니다. 매우 구체적인 성공 문서 엔지니어링과 같은 업종에는 이미 생성형 AI 성공 사례가 있습니다. Docugami는 고객의 복잡한 문서에서 지식 그래프를 구축하고 문서 생성과 데이터 추출에 모두 사용할 수 있는 맞춤형 소형 언어 모델을 제공합니다. 그리고 Docugami의 CEO Jean Paoli는 보험회사들이 가치 명세서, 보험 증서는 물론 갱신 날짜, 위약금 및 책임이 명시된 계약 문서를 위해 Docugami의 솔루션을 도입했다고 전했습니다. 이는 개별 고객과 전체 포트폴리오의 위험을 설명하는 중요한 정보로, 이전에는 새로운 견적을 생성하거나 재보험사에 포트폴리오를 제시하는 데 사용하기 위해 수작업으로 추출하고 통합하기가 어려웠습니다. 이러한 시나리오는 수백 달러가 아니라 수백만 달러를 절약할 수 있는 실제 시나리오입니다. Docugami의 대규모 고객은 2023년에 생성형 AI 위원회를 만들고 파일럿을 시작했습니다. 많은 고객이 발견 단계에서 구현 단계에서 전환하고 최소 6개월 전에 프로덕션 배포를 시작했으며 실질적인 수익을 거두었습니다. 생명과학 분야의 한 고객은 임상 시험 문서화, 규정 준수 및 데이터 탐색을 위해 플랫폼을 사용하는데, 이전에는 이 작업을 하는 데 6개월이 걸렸지만 이제는 일주일이면 된다고 강조합니다. 코딩은 생성형 AI를 본격적으로 활용하는 또 다른 분야입니다. 그러나 처음에는 생산성 향상이 훨씬 낮을 수 있습니다. Cisco가 6,000명의 개발자에게 GitHub Copilot을 처음 배포했을 때, 개발자들은 생성된 코드를 19%만 허용했습니다. 이제는 코드 제안의 거의 절반이 수락됩니다. Redfin에 따르면, 개발자 시간을 한 달에 6분만 절약해도 비용을 충당할 수 있지만, 기업에서 추적하고 싶은 코드 품질과 같은 다른 지표도 있습니다. 그러나 생성형 AI의 이점은 전문 지식이 부족한 시민 개발자가 로우코드 플랫폼을 사용하는 경우 훨씬 더 높을 수 있습니다. 디지털 보험 에이전시 Nsure.com은 이미 Power Automate를 광범위하게 사용하고 있었지만, 자연어로 자동화 흐름을 설명하는 것이 드래그 앤 드롭 인터페이스보다 훨씬 빠릅니다. 생성 및 구성에 4시간이 걸렸던 워크플로우가 Copilot for Power Automate를 사용하면 80% 이상 개선되어 40분가량이면 충분합니다. PG&E는 Power Platform의 로우코드 Copilot Studio 생성형 AI 툴로 Peggy라는 IT 헬프데스크 챗봇을 구축해 직원 요청의 25~40%를 처리함으로써 연간 110만 달러 이상을 절감했다고 합니다. 간단한 예로 Peggy가 직원들에게 SAP에 대한 액세스 권한을 잠금 해제하는 방법을 안내하게 함으로써 헬프데스크팀에서만 연간 840시간을 절약할 수 있었습니다. 비용 계산 온디맨드 생성형 AI 툴의 비용을 정확하게 추정하기는 어렵기 때문에 일부 배포가 제한될 수 있습니다. 개별 생성형 AI 작업에 대한 비용은 아주 저렴할 수 있지만, 전사적 배포에는 이 작은 비용도 포함됩니다. LinkedIn의 수석 소프트웨어 엔지니어 Juan Bottaro는 외부 공급업체를 이용하든 내부에서 개발하든, 생성형 AI에서 가장 먼저 고려해야 할 사항은 비용이라고 강조합니다. LinkedIn은 최근 프리미엄 사용자를 위한 새로운 생성형 AI 기능을 출시했는데, 이 기능은 프로필을 사용하여 채용 공고에 적합한지, 어떤 기술이나 자격이 채용 기회를 향상할 수 있는지 제안합니다. 새로운 워크플로우에 대한 비용을 예측하는 것은 어렵고, 사람들이 이와 상호작용하는 방식이 매우 다르기 때문에 사용량에 대한 모든 가정이 틀릴 수 있습니다. 대신, 소수의 사용자에게 배포하고 그들의 행동을 통해 추정할 수 있습니다. 처음에는 프로토타이핑 속도가 놀라울 정도로 빠르기 때문에 비용 절감 효과를 볼 수 있습니다. 의도를 이해하기 위해 분류기를 훈련하고 테스트하는 데 일반적으로는 1~2개월이 걸리지만, 단 며칠 만에 전달하고자 하는 프로토타입을 얻을 수 있었습니다. 현재의 프리미엄 경험에서 한두 달 만에 볼 수 있는 것과 매우 유사한 완제품 형태를 불과 일주일 만에 얻을 수 있었습니다. 그러나 문제는 이러한 상태에서, 원하는 것의 80%에서 배포에 필요한 품질 수준까지 도달하는 데 훨씬 더 오랜 시간이 걸리는 경우가 많습니다. 이 경우에는 4개월이 더 걸립니다. 측정 지표 생성형 AI 결과물의 품질과 정확성을 측정하는 것은 까다롭고 어렵습니다. 동일한 입력을 해도 매번 다른 결과가 나올 가능성이 높기 때문에 더 어렵습니다. 자체 보고된 생산성은 생성형 AI의 성공을 측정하는 최선의 방법이 아닐 수 있습니다. 성공적인 배포를 위해 중요한 지표를 바꾸어야 할 수도 있습니다. 생성형 AI 툴을 평가하기 위해 좋은 응답이 어떤 모습인지에 대한 공유 지침을 만듭니다. 예를 들면, Microsoft는 Azure Copilot을 구동하는 Ask Learn API에 대해 답변 품질에 대해 테스트할 실측 자료와 메트릭에 대한 참조 데이터가 포함된 대표적이고 주석이 달린 질문 및 답변의 '골든 데이터 세트'를 구축했습니다. 기업은 종종 생성형 AI를 배포하여 비용을 절감하는 것보다 돈을 벌 수 있는지에 더 관심이 있습니다. 이는 직원들의 생산성 능력 및 효율성 향상과 관련이 있습니다. 그러나, 많은 기업이 ROI를 입증해야 한다는 압박감이 있지만, 아직 그 단계에는 도달하지 않았습니다. Copilot for Sales와 같은 역할별 도구를 전환율, 거래 흐름 또는 통화 해결까지의 평균 시간 개선에 연결하는 것이 더 쉬울 수 있지만, 변수가 너무 많을 때에는 직접적인 인과 관계를 가정하지 않아야 합니다. 정량화할 수 없는 이점은 TCO 측면에서 여전히 가치가 있을 수 있습니다. 사람들에게 Copilot을 제공하면 시간을 절약할 수 있을 뿐만 아니라 지루한 작업을 줄일 수 있습니다. 이를 통해 직원 경험을 개선할 수 있습니다. 직원 경험 복리후생이 이직률을 낮추고, 직원들의 동기 부여와 참여도를 높이는 경향이 있다는 것을 알고 있습니다. 심리적 측면에서도 긍정적인 생산성이 많이 있습니다. 때로는 생성형 AI와 LLM에 대한 순수한 열정이 상황을 복잡하게 만들 수 있습니다. ‘생성형 AI에 대한 확실한 가치를 만들고 싶어서 가치를 측정하는 새로운 방법을 찾아야 한다'는 문제에 직면해 있습니다. 그건 잘못된 시각으로 보는 것입니다. 모든 제품에 동일하게 사용할 수 있는 성공 지표로 접근해 볼 수도 있으며, 일부 사례에서는 기존 AI만으로도 충분히 유용할 수 있습니다. 생성형 AI가 실패할 것 같다면… 생성형 AI를 도입하는 것이 적절한지, 부정확한 답변을 사용자가 반박할 수 없는 사실로 받아들이는 것을 막는 방법은 무엇인지, 학습 세트에 저작권과 부적절한 자료가 포함되지 않았는지 같은 질문을 진지하게 검토해야 합니다. 보고된 생성형 AI 실패 사례는 종종 경계를 테스트하는 사용자의 무책임한 행동이나 충분한 가드레일을 마련하기 위한 AI 기반 툴을 출시하지 못한 경우가 많습니다. 2023년 한때 OpenAI의 자체 1억 7,500만 달러 규모의 VC 펀드가 가짜 신원의 통제를 받았지만, 이는 누군가가 AI 기반 툴을 사용하여 구식 비즈니스 사기를 도운 사례로 보입니다. 생성형 AI에 대한 다른 우려 사항으로는 딥페이크, 단순한 디지털 위조, 학습에 사용된 데이터의 저작권과 관련된 잠재적인 법적 위험, 민감한 데이터나 기밀 데이터에 생성형 AI를 사용할 때 규정 준수 문제입니다. 모든 클라우드 모델과 마찬가지로 공동 책임의 개념이 관건입니다. AI 제공업체는 사용하기에 안전한 모델과 서비스를 제공해야 하지만, AI 서비스를 도입하는 기업은 사용 방식을 적절하게 제한하고 있는지 테스트해야 합니다. 생성형 AI에 대한 기업의 성숙도는 일반적으로 기존 AI의 성숙도를 추적하는 경향이 있습니다. 이를 도입하는 대부분의 기업은 예측 AI, 컴퓨터 비전, 머신러닝 등에 더 많은 투자를 하고 있습니다. 반면, 자체 AI 도구를 구축하는 기업은 여러 기술을 사용하고 생성형 AI를 솔루션이 아닌 하나의 구성 요소로 취급하고 있습니다. 출처: Samsung SDS 인사이드 리포트, https://www.samsungsds.com/kr/insights/expections-and-reality-in-generative-ai.html
2024.05.10
125
챗GPT가 쏘아올린 생성형 AI 열풍! 생성형 AI는 글쓰기, 그림 그리기, 음성 제작 등 다양한 콘텐츠 제작 능력을 보여주고 있는데요. 여기서 발생하는 궁금증 하나! 과연 AI 생성물 저작권은 누구에게 있는 것일까? 세상에 없던 것을 창조한 것이 아닌 기존 저작물을 학습하여 만들어진 결과물이니 자칫 학습한 원작자의 저작권을 침해하는 문제가 발생할 수 있을 거 같은데요. 생성형 AI를 올바르게 사용하기 위해 필요한 윤리 가이드 그 두 번째, 저작권에 대해 자세히 알아보아요! Q1. AI 생성물의 저작권은 누구에게 있나요? 우리나라를 비롯해 대부분 국가는 AI 생성물의 저작권을 인정하지 않습니다. 저작권으로 인정받기 위해서는 인간의 창의성 기술, 노력의 결과로써 만든 고유한 창작물만 저작권법상 저작물로서 보호가 가능합니다! → 원저작자 저작권 침해 관련 지속적 사회적 합의 必 Q2. 생성형 AI를 활용해 콘텐츠를 만들었어요. 저는 저작권을 가질 수 없나요? 현행 저작권법 해석에 따르면 ‘인간의 창작물’만이 저작물 이어서 ‘권리능력을 가진 자연인 또는 법인’만이 저작자로 인정 <저작권법 제2조> ‘저작물’은 인간의 사상 또는 감정을 표현한 창작물을 말한다. ‘저작자’는 저작물을 창작한 자를 말한다. 즉, 생성형 AI가 자동적으로 생성한 결과물은 현행 저작권법의 보호 대상이 아닙니다! 하지만 인간이 AI가 생성한 결과물에 창작적 표현을 추가했다면 그 기여 부분에 대해서는 저작권을 가질 수 있답니다. Q3. 다른 사람이 게시한 생성형 AI 콘텐츠를 재사용하면 저작권 위반일까요? 그렇지 않습니다! 생성형 AI 작성 콘텐츠에는 현행 저작권법상 저작권이 인정되지 않습니다. 생성형 AI 개발사가 이용자들에게 산출물에 대한 모든 권리를 양도하고 상업적으로 판매, 이용할 수 있도록 하고 있더라도 AI 이용자가 산출물의 저작권을 취득한 것이 아니며 타인의 재사용을 금지할 수 있는 권리 또한 없습니다. 단, 생성형 AI가 학습한 원저작물에 대해서는 저작권 침해 문제가 제기될 수 있습니다! 유의사항 하나 더! 생성형 AI를 활용해서 얻은 결과물이라는 출처 표기 필수! Q4. 생성형 AI를 활용해 유명인의 얼굴이 나오는 콘텐츠를 제작했는데 SNS에 업로드 시 초상권이 문제될까요? 그렇습니다. 생성형 AI 결과물이더라도 공인의 초상임을 알 수 있는 콘텐츠는 무단 게시가 불가능합니다. 연예인이나 유명인뿐 아니라 국민이라면 누구나 그의 초상이 허락 없이 촬영, 묘사, 영리적으로 이용되는 것을 거부할 수 있어요. 무단 이용자에 대해 손해배상 청구 및 게시 중단 청구 가능! 생성형 AI가 만든 콘텐츠의 저작권 바로 알기! 다음화에 더 많은 저작권 이슈와 유용한 정보를 가지고 올게요! [출처] 대한민국 정책브리핑(www.korea.kr), https://www.korea.kr/news/top50View.do?newsId=148927815
2024.02.23
254
안전한 멀티 클라우드 데이터 관리의 글로벌 선도 기업 베리타스테크놀로지스 (Veritas Technologies)가 발표한 새로운 조사보고서 '직장에서의 생성 AI(Generative AI in the workplace)'에 따르면 직장 내 생성형 AI에 대한 혼란으로 인해 직원 간 분열이 발생하는 동시에 민감한 정보가 노출될 위험성이 커지고 있는 것으로 나타났다. 이 설문조사는 베리타스테크놀로지스의 의뢰로 영국 런던에 본사를 둔 글로벌 시장조사 기관 3Gem이 지난해 12월 1일 부터 12월 13일까지 실시했다. 표본은 호주(1,000명), 브라질(1,000명), 중국(1,000명), 프랑스(1,000명), 독일(1,000명), 일본(1,000명), 싱가포르(500명), 한국(500명), UAE(500명), 영국(2,000명) 및 미국(2,000명)의 직장인 11,500명으로 구성되었다. 보고서 표지 이미지 조사에 따르면 국내 응답자의 80% 이상(글로벌 평균 71%)이 업무 중에 챗GPT와 같은 생성형 AI 툴을 사용하며 고객 정보, 직원 정보, 회사 재무 정보를 입력하는 등의 위험한 행동을 한 적이 있다고 인정했다. 국내 응답자의 44%(글로벌 평균 53%)가 직장 동료들이 업무에 AI를 활용하는 것은 불공정한 행위이며, 이러한 행위는 업무 경쟁에서 '부정행위'이라고 생각한다고 답했다. 또한, 국내 응답자의 46%(글로벌 평균 39%)가 AI 툴 사용이 초래하는 가장 큰 위협요인으로 민감한 정보 노출 리스크를 꼽았다. 국내 및 글로벌 직장 내 생성형 AI 툴 활용 현황 비교(출처:보고서) 업무에 생성 AI를 활용하는 것에 대한 의견과 관계없이 국내 응답자 94%(글로벌 평균 90%)가 사용에 대한 가이드라인과 정책이 중요하다고 답했지만, 현재 직원들에게 의무적으로 사용 지침을 제공하는 곳은 국내 기업의 40%(글로벌 평균 36%)에 불과한 것으로 나타났다. 생성형 AI 가이드라인과 정책의 부재로 인해 조직이 위험에 노출되고 있다. 국내 직장인의 약 1/3(32%, 글로벌 평균 31%)이 고객 정보, 직원 정보, 회사 재무 정보 등 잠재적으로 민감한 정보를 생성형 AI 툴에 입력한 적이 있다고 인정했다. 설문 결과에 따르면 국내 직장인의 약 절반(46%, 글로벌 평균39%) 정도가 AI 툴 사용이 민감한 정보를 유출할 수 있다고 생각하며, 32%(글로벌 평균 37%)만이 이로 인해 조직이 데이터 개인정보 보호 규정 준수에 위배될 수 있다고 생각하는 것으로 나타났다. 생성형 AI 가이드라인과 정책의 부재로 많은 기업이 기회를 놓치고 있다. 국내 직장인의 57%(글로벌 평균 56%)가 생성형 AI 툴을 매주 사용한다고 답한 반면, 18%(글로벌 평균 28%)는 전혀 사용하지 않는다고 답했다. 이처럼 상당수의 직장인이 생성형 AI를 사용하지 않는 이유는 국내 응답자의 59%(글로벌 평균 57%)만이 소속 조직으로부터 허용되는 것과 허용되지 않는 것에 대한 지침을 받았기 때문일 수 있다. 이는 적어도 두 가지 부정적인 결과를 초래할 수 있다. 첫째, 국내 응답자 중 44%(글로벌 평균 53%)가 생성형 AI를 사용하는 일부 직원들이 그렇지 않은 직원들보다 불공정한 이점을 누린다고 답해 직원 간의 분열과 부정적인 직장 문화가 조성될 가능성이 높아진다. 둘째, 많은 직장인이 생성형 AI를 적절하게 활용해 업무 효율성을 높일 수 있는 기회를 놓치고 있을 수 있다. 예를 들어, 생성형 AI를 사용하고 있는 직장인들은 정보에 대한 빠른 접근(국내 응답자 55% / 글로벌 평균 48%), 생산성 향상(국내 응답자 35% / 글로벌 평균 40%), 새로운 아이디어 창출(국내 응답자 및 글로벌 평균 모두 34%), 업무상 문제를 해결하기 위한 조언 참고(국내 응답자 및 글로벌 평균 모두 22%) 등의 혜택을 누리고 있다고 응답했다. 직원들은 생성형 AI 가이드라인과 정책을 원하고 있다. 국내 직원의 4분의 3 이상(80%, 글로벌 평균 77%)이 조직 내 생성형 AI 사용에 대한 가이드라인, 정책 또는 교육을 제공받기를 원한다고 답했다. 가장 큰 이유로는 직원들이 생성형 AI가 비즈니스에 미칠 수 있는 위험을 줄이기 위해서(국내 응답자 48%/글로벌 평균 43%), 적절한 툴 사용법을 배우기 위해서(국내 응답자 40%/글로벌 평균 68%), 직장에서 공평한 경쟁을 도모하기 위해서(국내 응답자 28%/글로벌 평균 25%) 등이었다. 이상훈 지사장은 설문결과의 메시지는 분명하다며, “생성형 AI의 적절한 사용에 대한 지침과 정책을 신중하게 개발하고 직원들에게 명확하게 전달해야 한다. 그리고 이를 올바른 데이터 규정 준수 및 거버넌스 툴 세트와 결합해 그 이행과 지속적인 활동을 모니터링하고 관리하는 것이 중요하다”고 말했다. 그는 또한 “직원들은 이로 인해 직무 만족도가 상승할 것이고 조직은 위험 요인의 증가 없이 기술의 혜택을 누릴 것"이라고 강조했다. 베리타스코리아 이상훈 지사장은 "생성형 AI 활용 방법이나 활용 여부에 대한 조직 내 지침 없이 일부 직원들은 잠재적으로 조직을 위험에 처하게 할 수 있는 방식으로 AI를 활용하고 있으며, 다른 직원들은 아예 활용을 주저하고 이를 적극 활용하고 있는 동료들을 원망하기도 한다”고 말했다. 또한 이 지사장은 “두 상황 모두 이상적이지 않으며 조직은 규정 준수 위반과 같은 문제에 직면하거나 전체 인력의 효율성을 높일 수 있는 기회를 놓칠 수도 있다”며, ”이와 같은 두 가지 문제 모두 무엇이 허용되고 무엇이 허용되지 않는지에 대한 효과적인 생성형 AI 가이드라인과 정책을 제공함으로써 해결할 수 있다"고 덧붙였다. 출처: 인공지능 신문 (2024.02.23일자)
2024.01.29
298
인공지능(AI)은 컴퓨터가 인간의 지능을 모방하는 기술로, 최근 들어 급격한 발전을 이루고 있다. AI는 다양한 분야에서 활용되고 있으며, 그 활용 범위는 더욱 확대될 것으로 예상된다. AI가 제대로 작동하기 위해서는 적절한 조련이 필요하다. AI 조련(또는 AI 훈련: AI training, AI handling)은 AI가 학습할 데이터를 제공하고, 그 데이터를 통해 AI가 원하는 결과를 도출하도록 하는 과정이다. AI 조련은 AI의 성능을 결정하는 중요한 요소이며, AI 활용의 성공 여부를 좌우할 수 있다. AI 조련은 크게 두 가지 단계로 나눌 수 있다. 첫 번째 단계는 데이터 수집 및 전처리 단계이다. 이 단계에서는 AI가 학습할 데이터를 수집하고, 그 데이터를 AI가 학습하기 쉽도록 전처리한다. 두 번째 단계는 학습 단계이다. 이 단계에서는 AI가 데이터를 통해 학습하고, 그 결과를 바탕으로 원하는 결과를 도출하도록 한다. AI 조련은 다음과 같은 요소들을 고려해야 한다. 데이터의 품질: AI의 성능은 데이터의 품질에 따라 크게 달라진다. 따라서 AI 조련을 위해서는 정확하고 유효한 데이터를 확보해야 한다. ▲데이터의 양: AI는 많은 양의 데이터를 학습해야 성능이 향상된다. 따라서 AI 조련을 위해서는 충분한 양의 데이터를 확보해야 한다. ▲학습 알고리즘: 학습 알고리즘은 AI가 데이터를 학습하는 방법을 결정한다. 따라서 AI 조련을 위해서는 적절한 학습 알고리즘을 선택해야 한다. ▲학습 파라미터: 학습 파라미터는 AI가 학습하는 과정에서 조절하는 변수이다. 따라서 AI 조련을 위해서는 최적의 학습 파라미터를 찾는 것이 중요하다. AI 조련은 많은 시간과 비용이 소요되는 작업이다. 따라서 AI 조련을 위해서는 효율적인 방법을 개발하는 것이 중요하다. 또한, AI 조련의 결과가 편향되지 않도록 주의해야 한다. AI 조련의 중요성은 다음과 같이 요약할 수 있다. AI 조련은 AI의 성능을 결정하는 중요한 요소이다. AI 조련은 AI의 성공 여부를 좌우할 수 있다. AI 조련은 많은 시간과 비용이 소요되는 작업이다. AI 조련의 결과가 편향되지 않도록 주의해야 한다. AI 조련은 AI의 발전에 있어 필수적인 요소이다. AI 조련의 중요성을 인식하고, 효율적인 AI 조련 방법을 개발하기 위한 노력이 필요하다. 다음은 AI 조련의 과제로 제시할 수 있는 내용들이다. ▲데이터의 다양성 확보: AI는 다양한 데이터를 학습해야 성능이 향상된다. 따라서 AI 조련을 위해서는 다양한 데이터를 확보해야 한다. ▲데이터의 균형성 확보: AI는 균형 잡힌 데이터를 학습해야 편향되지 않은 결과를 도출할 수 있다. 따라서 AI 조련을 위해서는 데이터의 균형성을 확보해야 한다. ▲데이터의 기밀성 보호: AI 조련에 사용되는 데이터는 민감한 정보일 수 있다. 따라서 AI 조련을 위해서는 데이터의 기밀성을 보호해야 한다. ▲AI 조련의 자동화: AI 조련은 많은 시간과 비용이 소요되는 작업이다. 따라서 AI 조련의 자동화를 통해 효율성을 높일 수 있다. AI 조련의 과제를 해결하기 위해서는 다음과 같은 노력이 필요하다. ▲데이터 수집 및 관리 기술의 발전: 다양한 데이터를 효율적으로 수집하고 관리할 수 있는 기술이 발전해야 한다. ▲데이터 전처리 기술의 발전: 다양한 데이터의 품질을 향상시키고, 데이터의 균형성을 확보할 수 있는 기술이 발전해야 한다. ▲데이터 보안 기술의 발전: 데이터의 기밀성을 보호할 수 있는 기술이 발전해야 한다. ▲AI 조련 자동화 기술의 발전: AI 조련을 자동화할 수 있는 기술이 발전해야 한다. AI 조련의 과제를 해결하기 위한 노력이 이루어진다면, AI 조련의 효율성이 높아지고, AI의 성능이 향상될 수 있을 것이다. 이상은 AI 조련 또는 AI 훈련의 기본적이고 핵심적인 내용들을 정리한 것이다. 위와 같은 AI 조련은 AI를 오랜 기간 연구한 전문가나 개발자만이 할 수 있을 것이다. 그러나 AI를 39년간 연구해온 필자는 일반인 누구나 쉽게 AI를 조련하는 방법을 개발해서 교육중이다. 방법은 어렵지 않다. 생성형 AI에게 질문만 하는 것이 아니라 AI가 모르는 것을 가르쳐 주면 된다. 가르쳐 줄 때 충분한 근거를 제시해주면 더 잘 알아듣는다. 필자는 AI가 모르는 것 수십 가지를 가르쳐 주고 그 결과를 브랜딩과 홍보 전략으로 활용한다. 이 방법을 전 국민이 잘 활용하면 ‘AI 일상화’와 ‘AI 대중화’가 더 빠르게 진행되고, 우리나라가 AI강국이 되는 것을 앞당길 수 있을 것으로 확신한다. 문형남(숙명여대 경영전문대학원 교수, 한국AI교육협회 회장) 출처 : SDG뉴스(http://www.sdgnews.net)
2024.01.29
440
애리조나대, 챗GPT 효과에 주목 신입생 수학·글쓰기 수업때 활용 맞춤형 개인 AI교사도 구축 예정 ASU는 18일 오픈AI와 파트너십을 맺고 ‘챗GPT 엔터프라이즈’를 대학 차원에서 활용한다고 밝혔다. 오픈AI가 기업이 아닌 대학과 파트너십을 맺은 것은 이번이 처음이다. ASU는 ‘챗GPT 엔터프라이즈’를 도입해 교육은 물론 연구 역량 증진과 개인정보보호·보안 강화에 생성형AI를 활용할 방침이다. 지난해 8월 출시된 챗GPT엔터프라이즈는 기업 고객을 위한 서비스로 사용량 제한이 없고, 개인용 유료 서비스인 GPT-4 플러스보다 성능이 최대 2배 빠르다. ASU는 2월부터 교수진과 교직원들이 참여하는 ‘기업용 챗GPT’를 활용할 아이디어 경연대회를 개최한다. 응모 부문은 학생 성과 증진, 연구혁신, 조직업무 간소화의 3가지 영역이다. 레프 고닉 ASU 최고 정보 책임자(CIO)는 “대학 차원에서 챗GPT 엔터프라이즈를 도입하기 전부터 교직원들이 이미 챗GPT와 인공지능 도구를 사용하고 있었다”면서 “이번 파트너십을 위해 6개월 이상을 준비해왔다”고 전했다. 학교 측은 챗GPT 엔터프라이즈가 기업 등급의 보안 조치를 채택해 프라이버시 침해 우려 없이 안전한 사용자 환경을 제공한다고 덧붙였다. 사진 확대 ASU는 오픈AI와 파트너십을 통해 학생들을 위한 맞춤형 ‘AI 튜터’도 구축할 계획이다. 내 실력에 맞게 가르쳐주는 개인교수인 셈이다. 고닉 CIO는 “STEM(과학, 기술, 공학, 수학)과목은 많은 고등 교육에서 성패를 좌우하는 과목”이라면서 이 분야에 AI 협력이 집중화될 것이라고 설명했다. 또한, ASU에서 가장 많은 학생들이 수강하는 ‘신입생을 위한 글쓰기’수업에도 챗GPT가 도입될 예정이다. ASU는 챗GPT 엔터프라이즈를 활용해 특정 과목을 공부하는 ‘창의적인 친구’ 같은 AI 아바타도 개발한다. 챗GPT 엔터프라이즈 계정은 교수진, 직원, 연구원 계정으로만 사용 가능하고 학생 계정으로는 사용할 수 없다. 접근권한을 원하는 교수진, 직원, 연구자는 2월부터 별도 제안서를 제출해야한다. 아리조나주립대학교처럼 대학이 AI기술을 개방적으로 받아들이는 것은 드문 일이다. ASU는 지난해 8월에는 ‘AI 가속화’팀을 출범시키면서 직접 AI 인프라를 개발하고 있다. 머신러닝 운영(MLOps) 엔지니어, 데이터 과학자, AI 개발 엔지니어로 15명의 팀을 구성했다. ASU는 2016년 이후 US뉴스&월드리포트 평가 순위에서 7년 연속 ‘가장 혁신적인 대학’ 1위로 선정된 곳이다. 마이클 크로 총장은 2002년부터 20년이 ASU의 총장으로 일하면서 대학의 혁신을 이끌고 있다. ASU는 온라인 교육프로그램으로 대학을 개방해 학생 수를 크게 늘렸다. 또한, 에듀테크 기업과 협력해 개인 맞춤형 교육프로그램도 개발했다. 학부는 기존의 학과 중심이 아닌 사회문제나 미래 과제 중심으로 개편했다. 기업들과 다양한 산학협력 프로그램 운영해 자금을 조달하면서 지난 2002년 주정부 지원금 90%로 운영되던 대학이 현재는 의존도가 9%로 낮아졌다. 브래드 라이트캡 오픈AI 최고 운영책임자는 보도자료를 통해 “ASU로부터 많은 것을 배우고 싶다”며 고등 교육 기관에서 챗GPT의 사용을 확대하고 싶다“고 밝혔다. 챗GPT 등장 초기 혼란이 이어지자, 많은 교육기관에서 사용금지령을 내렸다. 미국 뉴욕시 교육부는 지난해 1월 초 모든 공립고에 챗GPT 사용을 금지했고, 시애틀 일부 공립고에서도 챗GPT 사용을 막았다. 영국의 옥스퍼드와 케임브리지 대학도 챗GPT를 금지했다. 챗GPT가 학생들을 대신해 글쓰기를 해줘서 작문 교육을 무너뜨릴 것이라는 우려 때문이다. 여전히 논문 작성과정에서 챗GPT 같은 생성형AI 를 사용하는 것이 문제가 없는지에 대한 논란이 뜨겁다. 중국에서는 생성형AI로 논문을 작성한 대학생은 학위를 박탈해야 한다는 주장도 나왔다. 출처: 매일경제 2024.01.19일자
2024.01.16
308
(사진) AI가 탑재된 메타의 스마트 선글라스. 메타 미라클 레터, 실리콘밸리의 올 AI시장 '10가지 전망' 2023년은 생성형 AI의 한 해라고 말해도 될 정도로 인공지능이 산업과 경제의 중심에 자리 잡았다. 2022년 11월 세상에 등장한 오픈AI의 챗GPT가 엄청난 인기를 얻으면서 전 세계 사람들의 머릿속에 '인공지능(AI)'을 각인시켰다. 미라클레터는 주요 테크 전문 매체와 전문가들의 분석을 통해 2024년 AI산업에서 일어날 일을 예측해봤다. 1. 멀티 모달리티는 모든 AI의 표준이 될듯 2023년 11월 오픈AI가 공개한 GPT4 터보는 멀티 모달리티 능력을 갖췄다. 거대언어모델(LLM)이 텍스트만 이해하는 것이 아니라 이미지와 음성까지 이해하는 능력이다. 12월 공개된 구글 제미나이도 멀티 모달리티 능력을 갖췄다. 이런 멀티 모달리티 능력은 앞으로 나오는 모든 LLM 기반 인공지능의 표준이 될 것이라는 전망이 지배적이었다. 캐시 가오 사파이어벤처스 파트너는 "2024년에는 텍스트, 이미지, 오디오와 같은 데이터가 멀티 모달 형태로 융합하면서 AI에 대한 재정의가 이뤄질 것"이라며 "이러한 모델을 사용하는 스타트업은 더 나은 의사 결정을 가능케 할 뿐 아니라 사용자 경험을 향상할 것"으로 내다봤다. 2. 제미나이 프로 수준의 오픈소스 모델 기대 기업들의 AI 개발 경쟁은 AI 모델과 데이터를 비공개하는 기업 소유 AI와 이를 공개하는 오픈소스 AI의 두 가지 흐름으로 이어지고 있다. 챗GPT, 제미나이, 미드저니 등이 대표적인 기업 소유 AI이며 라마2, 스테이블디퓨전, 미스트랄 등이 대표적인 오픈소스 AI다. 오픈소스 AI는 자금이나 데이터 측면에서 기업 소유 AI보다 불리한 점이 많다. 하지만 개방적인 생태계를 통해서 많은 개발자와 스타트업의 참여를 이끌 수 있다는 강점이 있다. 올해 제미나이 프로나 GPT4 수준에 근접한 오픈소스 LLM이 나올 것이라는 기대가 높다. 오픈소스 AI는 자신의 데이터를 가지고 독자적인 AI를 만들려는 기업들에 유용하다. 마누비르 다스 엔비디아 엔터프라이즈 컴퓨팅 부문 부사장은 "사전 학습된 오픈소스 모델 덕분에 특정 도메인의 문제를 해결하는 생성형 AI 애플리케이션이 기업의 중요 전략이 될 것"이라고 설명했다. 3. 우리가 상상하지 못한 AI 사용 사례가 나온다 2023년 생성형 AI가 가상화폐나 메타버스와 다른 점은 실제 사용 사례가 많다는 점이었다. 챗GPT로 영문 이메일을 쓰고, 콘텐츠용 그림을 생성하거나 코딩을 하는 사용자가 많아졌다. 이런 실사용자가 많아지면서 챗GPT를 만드는 오픈AI는 연간으로 환산 시 매출이 약 2조원에 달할 것으로 예상된다. 올해는 이런 실사용 사례가 더 많이 늘어날 것으로 보인다. 데이원벤처스의 설립자인 마샤 버처 파트너는 "생명공학, 유전체, 기후 등 연구에 AI가 활발히 적용될 것"이라며 "AI가 인간의 의식, 무의식에 대한 지식을 어떻게 풀어 나갈 수 있을지 궁금하다"고 전망했다. 4. GPU 부족 현상 사라지고 추론 비용 경쟁 시작 AI 학습에 사용하는 엔비디아 GPU 부족 덕분에 2023년 등장한 신조어 'GPU 푸어'. GPU를 충분히 확보하지 못한 기업들이 스스로를 자조적으로 부르는 말이었다. 올해 엔비디아 GPU 생산의 병목현상이 해결되고, 비용 경쟁이 본격화될 것으로 예상된다. 특히 AI로 서비스를 제공하는 '추론'에서 제일 경쟁이 치열할 것으로 예상된다. AWS, MS 애저, 구글 클라우드 같은 클라우드 사업자가 자체적인 반도체를 만들고 AMD, 인텔이 자체 AI 반도체를 내놓는 것은 값비싼 엔비디아 GPU보다 저렴한 추론 비용을 제공할 수 있다고 믿기 때문이다. 중국이 직접 만든 AI 반도체 등장도 올해 예상된다. 미국이 엔비디아 GPU의 수출을 막으면서 중국 기업들은 AI를 학습시키는 데 어려움을 겪고 있기 때문이다. 디인포메이션은 중국의 반도체 독립 움직임이 AI 학습용 GPU에도 이어질 것으로 예상했다. 5. 이어폰에 스마트 안경, AI 디바이스로 부상 AI가 멀티 모달리티 기능을 갖추게 되고 AI 와 소통하는 방식이 달라질 것이 예상되면서 새로운 'AI 웨어러블 디바이스'가 부상하고 있다. 샘 올트먼 오픈AI CEO가 투자한 휴메인이 만든 AI 핀과 메타의 스마트 안경이 대표적인 AI 웨어러블이다. 최근 애플의 전설적인 디자이너 조너선 아이브가 설립한 디자인 회사가 AI 기기를 개발하고 있다는 소식은 많은 이들의 관심을 받고 있다. 이 회사에는 올트먼과 소프트뱅크도 관련된 것으로 알려졌다. 이런 측면에서 이어폰도 중요한 AI 디바이스로 떠오를 수 있다. 6. 스마트폰 경쟁에서도 AI가 중심 지난해 12월 구글은 제미나이를 공개하면서 픽셀8 프로에 스마트폰용 AI인 제미나이 나노를 탑재했다. 챗GPT가 등장하면서 개인화된 인공지능 비서가 나올 것이라는 전망이 나왔는데 구글이 한 발 빠르게 움직인 것. 이달 17일 실리콘밸리에서 공개되는 삼성전자의 갤럭시24에도 생성형 AI가 탑재될 것으로 예상된다. 여기에 애플도 아이폰에서 사용할 수 있는 LLM을 개발하고 있는 것으로 알려지면서 생성형 AI가 스마트폰 경쟁에서 중심에 서게 됐다. 핵심은 스마트폰 사용자의 데이터를 모아서 만드는 개인화된 AI 비서다. 테크크런치는 "애플이 독점적인 지위를 통해서 사용자 데이터를 실용적으로 응용하는 데 초점을 맞출 것"이라고 전망했다. 한 단계 업그레이드 된 시리가 나올 수 있다는 것. 클라우드를 거치지 않고 스마트폰이나 PC 처럼 디바이스에서 돌아가는 AI는 '온디바이스AI'라고 불린다. 7. AI의 한계에 대한 회의론 나올수도 현재 시장을 주도하고 있는 생성형 AI는 2017년에 나온 구글의 트랜스포머 모델을 바탕으로 만들어졌다. 특히 언어모델의 매개변수를 크게 하면 할수록 성능이 좋아지는 현상이 나타나면서 반도체에서 '무어의 법칙'과 같은 빠른 혁신이 나타날 수 있었다. 하지만 벌써부터 이런 트랜스포머를 기반으로 하는 AI에 한계가 왔다는 지적도 나오고 있다고 디인포메이션과 테크크런치는 전망했다. 마치 트랜스포머 모델이 과거 인공지능에서 지배적이었던 CNN 모델을 대체했던 것처럼 트랜스포머를 대체할 모델이 나올 것이라는 전망이 많다. 대표적으로 맘바(Mamba)나 LNN(Liquid Neural Network)이 대안으로 언급되는 모델이다. 이런 점에서 2024년은 AI의 한계에 대한 회의론이 나올 가능성이 높다. 8. 국가대표 AI 기업에 돈 쏠려 지난해 생성형 AI가 떠오르면서 자국을 대표하는 AI 기업과 모델을 만들려는 움직임이 커져 가고 있다. AI가 곧 국가 주권과 관련된다는 것으로 이를 '소버린AI'라고 부른다. 국가별로 LLM을 만드는 대표 기업에 많은 돈이 몰리고 있다. 프랑스는 미스트랄, 독일은 알레프알파라는 스타트업이 직접 LLM을 만들고 있는데 미스트랄은 지난해 12월 4억달러, 알레프알파는 11월 5억달러에 달하는 어마어마한 투자를 유치했다. 빅테크 기업들에 안방을 내준 유럽 국가들은 이번에는 똑같은 실수를 반복하지 않겠다는 생각을 하고 있다. 중국 빅테크 기업들도 모두 자체적인 LLM 개발에 나서고 있다. 알리바바, 바이두, 텐센트, 바이트댄스가 모두 LLM을 개발하고 있다. 중국뿐 아니라 한국, 인도, 이탈리아 등도 '소버린AI' 구축에 나서고 있다. 이 같은 생각의 바탕에는 자국 언어로 된 LLM은 자국 기업이 가장 잘 만든다는 생각이 깔려 있다. 9. AI 저작권 이슈 본격 불거질 듯 뉴욕타임스가 오픈AI와 마이크로소프트에 수조 원 규모의 소송을 제기하면서 저작권 이슈가 AI의 중심으로 들어왔다. 뉴욕타임스는 오픈AI가 자신들의 기사를 무단으로 학습했고 이에 대한 적절한 보상을 지불하지 않았다고 주장했다. 또한 구글과 같은 검색 서비스에서는 뉴욕타임스 사이트로 링크를 통해 이동하면서 트래픽이 발생하지만 생성형 AI에서는 이런 트래픽이 나오지 않는다는 점도 지적했다. 이처럼 저작권 이슈가 2024년에는 더욱 많아질 것으로 보인다. 이미 레딧이나 X 같은 곳은 자신들의 데이터를 무단으로 학습에 사용하는 것을 금지시켰다. 10. 전 세계 선거, AI가 만든 가짜 콘텐츠와 전쟁 지난해 조 바이든 미국 대통령이 AI 행정명령을 내놓으면서 AI에 대한 규제가 본격화됐다. 하지만 실제 규제의 효과는 올해부터 발휘될 것으로 예상된다. 무엇보다 올해 중요한 선거가 많다는 점이 중요하다. AI로 만들어진 가짜뉴스와 가짜이미지가 선거에 영향을 미칠 수 있기 때문. 주요 매체들은 AI 가 선거에 미칠 영향에 대해서 우려를 표하고 있다. 또한 이를 계기로 AI에 대한 규제가 더 본격화될 것이라고 전망했다. (출처: 매일경제, 2024-01-08일자, 이덕주 기자 mrdjlee@mk.co.kr)