챗GPT 열풍의 이면...무분별한 정보 제공과 유출 우려

이탈리아, 개인정보 보호 위헤 챗GPT 차단..."미성년자, 무분별 정보 제공 우려도 제기"
삼성전자, 챗GPT 오남용 우려 및 정보 유출 가능성 시사..."임직원 대상 설문조사 진행"
황성완 기자 2023-04-03 10:19:04
[스마트에프엔=황성완 기자] 오픈AI가 지난해 12월 서비스를 시작한 인공지능(AI) 챗봇 '챗GPT'에 대한 열풍이 거세다. 그러나 일각에서는 챗GPT가 해킹 등 사이버 범죄의 도구로 이용될 수 있다는 우려가 제기되고 있다. 실제로 이탈리아는 최근 개인정보 보호를 위해 챗GPT 접속을 차단하고, 오픈AI가 유럽연합(EU)의 개인정보보호규정(GDPR)을 준수했는지 여부를 조사하겠다고 발표한 바 있다. 또 삼성전자를 포함한 일부 국내 기업들 역시 챗GPT 오남용 우려나 핵심 정보 유출 가능성에 우려를 표하고 있다. 

최근 챗GPT에 대한 관심이 커지면서 국내외 기업들이 이와 같은 생성형 AI 개발에 한창이다. 구글과 MS는 챗 GPT에 맞설 대항마 출시에 집중하고 있다. 구글은 지난 2월 6일(현지시간) 챗GPT에 맞설 대항마인 바드(Bard) 출시를 공식 발표했고, MS도 자사의 검색 엔진 빙(Bing)과 브라우저인 엣지에 인공지능 챗봇인 챗GPT를 장착했다. 국내 대표 플랫폼 네이버와 카카오 역시 각각 올해 상반기 '서치 GPT'와 버티컬(전문 영역) 초거대 인공지능(AI) 서비스를 공개하고, 카카오 자회사 '카카오브레인'은 올해 하반기 AI 챗봇 서비스를 출시할 예정이다.

챗GPT는 초거대AI 'GPT-3.5'를 기반으로 한 AI 대화 서비스다. 초거대AI 목표는 알고리즘을 통해 사람이 생각하는 방식을 모방하는 것이다. A=B처럼 이미 입력된 질문을 출력하는 것이 아니라, 기존에 학습한 데이터를 재조합해 완전히 다른 질문을 이해하고, 답을 출력하는 새로운 형식이다.

챗GPT를 개발한 오픈AI 홈페이지 /사진=황성완 기자

챗GPT가 전 세계적으로 흥행함에 따라 해킹 등 보안 이슈도 지속적으로 제기되고 있다. 지난달 31일(현지시간) 주요외신에 따르면, 이탈리아는 챗GPT가 자국의 개인정보보호 규칙과 관련해 규정이 모호해 서비스 접속을 일시적으로 차단했다. 챗GPT 개발사인 오픈AI도 이탈리아 당국의 요구에 따라 현지에서 접속할 수 없도록 조치했다고 밝혔다. 앞서 이탈리아 데이터보호청은 챗GPT가 알고리즘 학습을 위해 개인정보를 대량으로 수집하고 저장하는 행위를 정당화할 근거가 없다고 지적한 바 있다.

이에 20일 이내 해결책을 제시하지 않을 경우 최대 2000만 유로(한화 약 284억원)에 달하는 벌금을 부과하겠다고 오픈AI에 경고했다. 이는 챗GPT 세계 연 매출 최대 4%에 이르는 금액이다.

이탈리아 당국은 챗GPT가 미성년자에게 무분별한 정보를 제공할 수 있다는 우려도 제기했다. 특히, 챗GPT 자체 이용자 연령 제한이 13세 이상이지만, 이를 확인하는 절차가 부족하다고 지적했다. 실제 해커가 챗GPT를 활용한 사례 역시 포착됐다. 이스라엘 사이버보안업체 체크포인트는 지난 1월 해커가 활동하는 사이버 포럼 등 공간에서 챗GPT가 악성코드나 피싱 메일 등 해킹도구를 개발하는 데 활용됐다고 발표했다. 

체크포인트는 "챗GPT를 활용한 대부분의 사이버 범죄자는 개발 역량이 전혀 없으며, 아직 AI를 통해 만들어 낸 해킹 도구는 기초적인 수준에 불과하지만 "AI가 악용될 가능성이 높다" 강조했다.

이러한 챗GPT 범죄 우려는 국내에서도 확산되고 있다. 삼성전자를 비롯한 일부 국내 기업에서도 챗GPT 오남용 우려나 핵심 정보 유출 가능성을 시사하고, 이에 대해 조치를 취하고 있는 것으로 드러났다. 삼성전자 디바이스경험(DX) 부문은 현재 임직원을 대상으로 챗GPT 사용과 관련해 설문조사를 진행 중이다. 설문에는 챗GPT 사용 경험 여부를 묻는 것은 물론, 사내에서 챗GPT를 사용하는 것에 대해 어떻게 생각하는지를 묻는 내용 등이 포함됐다. 이는 삼성전자가 사내에서 챗GPT를 사용할 수 있게 됨에 따라 향후 회사 주요 기밀과 개인 정보 등의 유출을 막기 위한 조치로 해석된다.

삼성전자는 "설문 조사 결과를 토대로 업로드 용량 제한이나 업무 PC 사용 제한 등의 내부 지침을 만들 것"이라고 말했다.

이 같은 조치는 최근 반도체(DS) 부문에서 불거진 챗GPT 오남용 사건이 촉발한 것으로 예상된다. DS는 이미 지난달 11일부터 챗GPT 사용을 허가했는데, 20일도 안 돼 사내 정보를 공유하는 사건이 3건이나 발생했다. 최근 DS 사내 게시판에 게재된 공지에 따르면 챗GPT에 설비정보 2건과 회의내용 1건이 공유됐다. 챗GPT에 내부 프로그램 소스코드 등을 입력한 순간 개방형 AI인 챗GPT가 자동으로 데이터를 학습해 외부에 공개될 위험이 생긴 것이다.

삼성전자는 그럼에도 챗GPT를 원천 배제하진 않을 전망이다. DS는 질문당 업로드 용량을 1MB로 제한하는 등 '긴급 조치'를 내리는 선에서 사고를 수습하겠다는 방침이다.

국내 보안업계 역시 챗GPT의 보안 우려가 나옴에 따라 관련 연구를 진행 중이다. 한 보안업계 관계자는 "실제로 챗 GPT 내 해킹하는 방법을 검색하면 알려주는 것은 사실이지만, 정보의 내용은 미비하다"고 말했다.

황성완 기자 skwsb@smartfn.co.kr

댓글

(0)
※ 댓글 작성시 상대방에 대한 배려와 책임을 담아 깨끗한 댓글 환경에 동참에 주세요. 0 / 300