"정보 유출 우려"...삼성전자, DX 부문에 챗GPT 사용 금지령

"챗GPT, 보다 안전하게 사용할 수 있는 방안 마련할 것"
황성완 기자 2023-05-02 17:32:28
[스마트에프엔=황성완 기자] 삼성전자가 전 세계적으로 화두가 되고 있는 오픈AI의 '챗GPT'를 포함한 유사 생성형 인공지능(AI) 사내 사용을 금지했다.

2일 삼성전자에 따르면 모바일과 가전 등을 담당하는 DX부문은 최근 임직원에게 사내 네트워크나 회사 소유 단말기를 통한 챗GPT 등 생성형 AI 사용을 제한한다고 공지했다.

이는 챗GPT 등에 입력된 데이터는 외부 서버에 전송되기 때문에 관리가 어렵고, 노출 위험성이 있다는 우려에 따른 조치로 해석된다. 삼성전자도 지난 3월 DS(반도체) 부문에 챗GPT 사용을 허용한 후 얼마 되지 않아 정보 유출 사태를 겪었다. 삼성전자 엔지니어는 실수로 내부 소스코드를 챗GPT에 업로드해 해당 코드가 외부에 유출된 것으로 전해졌다.
챗GPT를 개발한 오픈AI 홈페이지

실제로 해킹 등 보안 이슈도 지속적으로 제기됨에 따라 해외에서도 챗GPT 사용 금지가 늘어나는 추세다.

최근 이탈리아는 챗GPT가 자국의 개인정보보호 규칙과 관련해 규정이 모호해 서비스 접속을 일시적으로 차단했다. 이탈리아 데이터보호청은 챗GPT가 알고리즘 학습을 위해 개인정보를 대량으로 수집하고 저장하는 행위를 정당화할 근거가 없다고 지적한 바 있다.

앞서, 삼성전자는 지난달 DX부문 임직원을 대상으로 챗GPT 사용과 관련한 설문조사를 진행하기도 했다. 조사 결과 임직원 65%가 챗GPT에 대한 보안 우려를 표한 것으로 알려졌다. 삼성전자는 내부 안내를 통해 "챗GPT 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 커지고 있다"며 "회사는 직원의 생산성과 효율성을 향상시키기 위해 생성형 AI를 안전하게 사용할 수 있는 방안을 마련 중"이라고 밝혔다.

삼성전자 관계자는 "생성형 AI를 안전하게 사용할 수 있는 방안을 마련 중 "이라며 "사내 보안 정책이 마련되기 전까지 사용을 금지하기로 했다"고 말했다.

황성완 기자 skwsb@smartfn.co.kr

댓글

(0)
※ 댓글 작성시 상대방에 대한 배려와 책임을 담아 깨끗한 댓글 환경에 동참에 주세요. 0 / 300