"챗GPT 회사에서 못 쓴다" 삼성전자 DX 부문이 헤어질 결심한 까닭은

입력
2023.05.02 17:20
12면
구독

사내 정보 유출 우려 따른 조치... 반도체 부문은 제한적 활용 가능

오픈AI 홈페이지 캡처

오픈AI 홈페이지 캡처


삼성전자가 모바일·네트워크 사업을 담당하는 디바이스경험(DX) 부문에서 당분간 챗GPT 등 생성형 인공지능(AI)의 사내 활용을 금지한 것으로 알려졌다.

2일 업계에 따르면, 삼성전자는 최근 사내 공지를 통해 보안상 문제를 고려해 생성형 AI의 활용을 금지한다는 정책을 알렸다. 이에 따라 DX 부문 임직원은 내부 네트워크와 삼성의 정보기술(IT) 기기에서 챗GPT를 사용할 수 없게 됐다.

삼성전자는 공지를 통해 "챗GPT와 마이크로소프트의 빙, 구글 바드와 같은 인공지능 플랫폼으로 전송된 데이터가 외부 서버에 저장돼 검색 및 삭제가 어렵고, 결국 다른 사용자에게 공개될 수 있다"고 우려한 것으로 알려졌다.

삼성전자 관계자는 "지난달 초 일부 기업 정보가 챗GPT에 입력된 사실이 알려진 후 회사 내에 경각심이 커졌다"며 "임직원 대상 설문조사를 시행한 결과 응답자의 65%가 챗GPT의 보안 위험을 걱정하는 답변을 한 것이 이번 조치에 영향을 미쳤다"고 전했다.

다만 이번 조치는 반도체 등을 담당하는 디바이스솔루션(DS) 부문에는 적용되지 않는 것으로 알려졌다. 챗GPT 사용에 업로드 용량 등 일정한 제한이 있지만 일단 활용은 할 수 있다. 대신 DS 부문은 챗GPT의 오남용을 주의하라는 메시지를 공지하고 각 팀장이 사용 가능 범위를 교육했다.

이 소식을 전한 블룸버그에 따르면, 삼성전자 말고도 여러 기업이 사내망에서 생성형 AI를 활용하는 것을 금지하거나 제한하고 있다. 생성형 AI는 입력된 데이터를 학습하고 이를 토대로 더 발전된 결과물을 만들어내는데, 이 과정에서 입력된 민감한 사내 정보가 다른 AI 이용자에게 노출될 수 있다는 걱정 때문이다.

2월에는 JP모건체이스, 뱅크오브아메리카, 씨티그룹 등 월가의 금융사들이 챗GPT 활용을 제한했다. 이탈리아 규제 당국은 지난달 챗GPT의 훈련 방식이 개인 프라이버시를 침해할 수 있다는 이유로 한동안 서비스 접근을 차단했다가 최근 해제했다. 챗GPT의 개발사 오픈AI는 지난달 이용자가 입력한 정보가 AI 모델의 교육에 쓰이지 않게 할 수 있는 '프라이버시 보호' 모드를 추가하는 방식으로 이탈리아 당국의 요구를 받아들였다.

인현우 기자

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.