상세 컨텐츠

본문 제목

구글도 직원들에게 AI 챗봇 사용 경고

IT 소식

by 웨어러블서치 2023. 6. 18. 21:06

본문

반응형

Think before you chat with ChatGPT, Google Bard, Bing Chat, or any other AI chatbot

ChatGPT, Google Bard, Bing Chat 또는 기타 AI 챗봇과 채팅하기 전에 생각할 것을 권고


사진출처) 구글 바드

구글의 모회사인 알파벳은 보스턴 다이내믹스를 인수했다가 매각하고, 딥마인드를 통해 과학적 성과를 거두는 등 수년 동안 인공지능에 올인해 왔으며, 최근에는 인공지능 챗봇인 구글 바드를 출시하면서 올해 구글 I/O의 메인 이벤트로 인공지능을 주제로 삼았습니다. 하지만, 구글은 구글의 직원들에게도 AI 봇에게 말을 조심하기를 권장하고 있습니다.

로이터 통신의 보도에 따르면, 알파벳은 직원들에게 기밀 정보를 AI 챗봇과 공유하지 말라고 경고했는데, 이 정보는 이후 해당 기술을 소유한 회사에 저장되기 때문입니다.

이는 정확한 정보에 의하면 구글에서 직접 나온 말이기 때문만이 아니고 일상적인 보안에 관한 이야기 일 수도 있습니다. 일반적으로도 온라인에 사적인 정보나 기밀 정보가 유출되는 습관은 좋지 않습니다.

ChatGPT, Google Bard, Bing Chat과 같은 AI 챗봇은 지속적으로 학습하는 대규모 언어 모델(LLM)을 기반으로 하기 때문에 사용자가 말하는 모든 내용이 챗봇을 학습시키는 데 사용될 수 있습니다. 또한 이러한 AI 챗봇을 개발한 회사는 데이터를 저장되므로 그 회사 직원에게 공개될 수 있습니다.

구글의 AI 챗봇인 바드(Bard)에 대해 구글은 FAQ에서 다음과 같이 설명합니다:

"사용자가 Bard와 상호작용할 때 Google은 사용자의 대화, 위치, 피드백, 사용 정보를 수집합니다. 이 데이터는 Google 개인정보처리방침새 창에서 열기에 설명된 대로 Google 제품, 서비스 및 머신러닝 기술을 제공, 개선 및 개발하는 데 도움이 됩니다."

또한 Google은 대화의 일부를 샘플로 선택하여 숙련된 검토자가 검토하고 최대 3년 동안 보관하므로 "바드 대화에 사용자 또는 다른 사람을 식별하는 데 사용할 수 있는 정보는 포함하지 않는다"고 명시하고 있습니다.

OpenAI는 자사 사이트에서 "시스템을 개선하고 콘텐츠가 정책 및 안전 요건을 준수하는지 확인하기 위해 대화를 검토한다"며 AI 트레이너도 ChatGPT 대화를 검토하여 시스템 개선에 도움을 준다고 밝히고 있습니다.


※ 기사 내용 참조

[ZDNet] Even Google is warning its employees about AI chatbot use | by Maria Diaz | June 16, 2023 | https://www.zdnet.com/article/even-google-is-warning-its-employees-about-ai-chatbot-use/


https://pf.kakao.com/_UCxoxnT

 

웨어러블서치

기술이 어디를 향하고 개인과 사회에 어떤 영향을 미치는지 연구합니다.

pf.kakao.com

 

728x90
반응형

관련글 더보기

댓글 영역