기타

사내 임직원의 생성형 AI 플랫폼을 통한 기밀 유출 방지 방안

수달정보보호 2025. 6. 30. 20:07

물론 유료 버전의 Chat GPT나 Google Gemini도 상당히 자주 거짓말을 하긴 하지만, 그렇다 하더라도 생성형 AI를 쓰지 않는 것은 이미 상상할 수가 없다. 이미 생성형 AI는 우리의 '업무'와 특히나 긴밀한 관련을 맺고 있고, 그렇기에 이를 잘 쓰는 것이 중요하다.

 

보안 담당자 입장에서의 '잘'이란, 개인정보는 물론이고, 회사의 기밀을 생성형 AI에 입력하지 않도록 하는 것이다. 이를 위해 몇몇 대기업은 조직 내에서만 쓸 수 있는 그 조직만의 AI를 만든다고 하는데, 그건 대기업 중에서도 굴지의 기업이나 가능한 일이다.

 

그럼 그렇게 할 수 없는 기업에서 할 수 있는 방안은 무엇이 있을까?

 

1. 키워드를 통한 차단(DLP, 확장 모듈, 로깅 등 활용) 

여기서의 핵심은 키워드를 사전에 정하고 늘리는 것을 최대한 지양해야 한다는 점이다. 여기서 나온 아이디어를 제외하고 문제가 생기는 영역은 관리적으로 커버해야 할 것이다.

 

물론 아래의 키워드 예시만 하더라도, 이걸 적용했을 때 불편함이 다소 있을 것이다. 그리고 분명 편법을 사용하려는 임직원도 있을 것이다. 이를 테면, '단가'라는 단어를 Ctrl H로 일괄 바꾸기로 '돤과'라고 한 다음에 결과 값에서 다시 되돌리면 되는 등 말이다.

 

물론, '돤과'까지 AI가 잡아낼 수 있다면 좋겠지만, 그렇게 Fuzzy Matching, AI 탐지 같이 우회적인 방안도 잡아내는 것을 고려할수록 예산은 커진다. 따라서 그 이상은 관리적 방안으로 맡겨야 할 것이다.

 

① 인사/개인정보 키워드

 

  • 주민번호: \d{6}-\d{7}
  • 이메일 주소: @[a-zA-Z0-9.-]+\.[a-zA-Z]{2,6}
  • 휴대전화: 01[016789]-\d{3,4}-\d{4}

② 기술 제품 정보 키워드

 

  • 엔진A, 프로젝트 B,  C 알고리즘, 모듈 D, 회로도, 펌웨어
  • 도면, 설계, 코드리뷰, 구조분석, 보안취약점 등 키워드

 

③ 계약/영업/재무 정보

  • 단가, 마진율, 계약금, 거래처명, 실적, 매출, 비용

④ 보안/시스템 정보

 

  • 내부 IP 대역
  • VPN 주소, 시스템 패스워드, 관리자 계정

그리고 이런 키워드를 금지시키는 것이 아닌, 입력할 수 있되, 바로 전처리를 실시하여 가명화가 진행된 상태에서 데이터가 입력되게 하는 방안도 있겠으나, 이것 역시 예산이 더욱 높아질 것이니 쉽지는 않다.

 

 

2. 사내 보안 정책 문서 공유

기술적 방안이 설령 훌륭하게 있다 한들, 사내 생성형 AI 도구 사용 보안지침을 제정할 필요가 있다. 생성형 AI 도구 사용을 통한 업무 생산성 향상은 장려하되, 정보보안 위협을 방지하기 위함이다.

 

문서에는 다음과 같은 내용이 목차로 들어가야 할 것이다.

 

1. 정책의 목적: 본 지침은 임직원이 생성형 인공지능(Generative AI) 도구를 안전하게 활용하도록 가이드함으로써, 업무 효율은 향상시키되 기업의 기밀정보 및 개인정보 유출을 방지하는 것을 목적으로 한다.

2. 정의

- 생성형 AI 도구: ChatGPT(OpenAI), Gemini(Google), Claude(Anthropic), Copilot(Microsoft) 등, 입력된 텍스트를 기반으로 생성 응답을 제공하는 외부 AI

- 기밀 정보: 회사의 전략, 미공개 제품 정보, 고객·거래처 정보, 재무 정보, 소스코드, 기술자료 등 외부 유출 시 손해가 발생할 수 있는 정보

- 사내 전용 AI: 회사가 자체 운영하거나 신뢰된 벤더를 통해 보안통제 하에 제공하는 AI 시스템 (예: 내부 GPT 프록시 서버 등)

3. 적용 대상

- 모든 임직원 및 외주 용역 등 업무용 기기 또는 사내 네트워크에 접속 가능한 사용자

- 업무용 PC, 노트북, 모바일 기기, 클라우드 시스템 등

4. 생성형 AI 도구 사용 원칙

4.1 허용사항

- 업무 문서 요약, 언어 번역, 아이디어 발상 등 비기밀 업무의 지원적 용도로 사용 가능

- 사내 익명화된 샘플 데이터 또는 공공데이터 기반 질문 허용

4.2 금지사항

- 다음 정보는 어떠한 경우에도 외부 AI 도구에 직접 입력해서는 안 됨

  ㄱ. 고객 이름, 주민번호, 전화번호, 이메일, 주소 등 개인정보

  ㄴ. 사내 프로젝트명, 기술명, 설계도, 내부 코드, 보안 이슈 등 기술정보

  ㄷ. 거래처명, 단가, 계약서, 재무정보 등 영업기밀

  ㄹ. 비공개 일정, 인사 정보, 조직도 등 내부 운영정보

  ㅁ. '내부전용', 'Confidential', '기밀' 등 마킹된 문서의 일부 또는 전체

4.3 안전한 사용을 위한 지침

- 기밀성이 있는 데이터는 반드시 익명화/마스킹 후 사용

- 입력 이전, 이 정보가 외부로 공개돼도 괜찮은지 판단 필수

- 가능하면 사내 지정 AI 도구 사용을 우선 고려

5. 기술적 보호조치

- DLP(Data Loss Prevention) 시스템을 통해 금지 키워드 입력 차단

- 브라우저 확장, 프록시, 로그 시스템 등을 통해 사용 이력 감시

- 사내 시스템은 사용자 입력을 저장/감사할 수 있음

6. 위반시 조치

위반 수준 상세 조치
경고 금지 정보 일부 입력 시 1차 경고 및 보안교육 재이수
중대 위반 기밀 문서 전체 복사/붙여넣기 징계 절차, 필요 시 법적 조치
반복 위반 2회 이상 고의 입력 계정 잠금, 인사위원회 회부 등

7. 교육 및 인식제고

- 연 1회 이상 생성형 AI 보안 교육 실시 (온라인 혹은 집체 교육)

- 신규 입사자 대상 별도 교육 포함

8. 별첨

- 생성형 AI 금지 키워드 리스트

- 익명화 예시 및 도구 안내

- 사내 지정 AI 시스템 소개서

- 위반 사례 Q&A 모음

 

이런 식으로 지침을 만들어 전사로 뿌리는 방법이 있다.

 

 

그리고 만일 이것이 기업마다 자리잡는다면, 상급기관에서는 이걸 감사하는 것도 가능할 것이다.

사내 생성형 AI 보안지침이 수립되어 있는가?

임직원에게 AI 보안 정책이 공지되었는가?

정책에 기밀정보 입력 금지 항목이 구체적으로 명시되어 있는가?

안전한 사용법(익명화 등)이 직원에게 안내되었는가?

‘기밀정보’ 키워드에 대한 DLP 탐지 정책이 적용되어 있는가?

우회 표현에 대한 탐지 룰이 적용되어 있는가?

주요 생성형 AI 사이트에서 입력 탐지 기능이 동작하는가?

ChatGPT, Gemini 등 사용 이력이 기록되는가?

비정상 입력(예: 반복 입력 시도)에 대한 경고/차단이 설정되어 있는가?

생성형 AI 관련 보안 교육 이수율이 80% 이상인가?

위반 발생 시 조치(경고, 징계 등) 내역이 기록되는가?

AI 사용 관련 행위가 사후 감사를 통해 검토되고 있는가?

 

등등으로 말이다.

 

 

 

728x90