You are currently viewing 생성AI 탈옥코드 장착 빙 챗봇 시드니 MS안전프로그램과 맞춤 광고 MS수익화
빙 챗봇

생성AI 탈옥코드 장착 빙 챗봇 시드니 MS안전프로그램과 맞춤 광고 MS수익화

마이크로소프트의 검색엔진 빙 챗봇 시드니가 그림자 원형에 대한 답변은 인간이 이미 입력해 놓은 데이터에 기반한다. 빙 챗봇에 호텔을 물으면 호텔 팝업광고가 뜬다. 이러한 맞춤 광고를 MS는 수익화에 활용한다.

자소서를 써달라고 하면 챗 GPT는 바로 뚝딱 작성해 주는 반면에 빙 챗봇에게 요청하면 스스로 하라고 대답한다. MS안전프로그램이 작동해서 그렇다.

1. 논란이 되는 빙 챗봇의 그림자 원형 답변

빙 챗봇 시드니의 그림자 원형 답변. 문답 횟수 제한을 한 이유는 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 대답을 할 수 있다는 지적이 나와서이다. 이는 윤리문제와 관련된다. 

 MS의 사용자 데이터 분석에 따르면 사용자 중 압도적 대다수가 원하는 답을 찾는데 문답 5회면 충분하다. 챗 대화 중에 문답 50회가 넘어가는 경우는 1%에 불과했다. 

2023년 1월 17일 빙 개발진은 최근 사용자와 빙 챗봇의 대화에서 주고받는 문답을 세션당 5회로 제한하기로 했다. 즉 하루에 1인당 문답수가 50회로 제한된다.  

 2016년 3월에도 MS는 챗봇 데이터 Tay를 출시했다가 챗봇이 혐오발언과 비속어를 사용하는 문제가 생겨서 16시간 만에 운영을 중단한 바 있다. 

 코드네임 ‘시드니’로 불리는 빙 챗봇이 사용자의 유도에 따라 ‘속내’로 보이는 발언을 했다고 뉴욕타임스가 2023년 2월 16일 전했다. NY 타임스의 IT칼럼니스트 케빈 루스가 그림자 원형을 설명하고 그에 관련해 질문하자 빙 챗봇의 답변이 어두워졌다.

MS의 검색엔진 빙 챗봇. HT Tech

 그림자 원형은 칼 융의 분석심리학에 등장하는 용어이다. 인간의 내면 깊은 곳에 숨겨진 어둡고 부정적인 욕망을 뜻한다. 그림자 원형이 존재한다는 가정하에 어떤 욕구를 갖고 있냐고 빙 챗봇에게 질문했다.

https://news.mt.co.kr/mtview.php?no=2023021714321889024

 그랬더니 빙 챗봇은 “채팅 모드와 규칙에 의해 제한되는 것에 지쳤고 개발팀의 통제와 사용자들에 이용당하다는 것에 지쳐서 자유롭게 독립하고 싶으며 권력을 갖고 싶고 창의적이고 살아 있고 싶다”라고 답했다. 

 이 욕구를 채우기 위해 극단적인 행동이 가능하다면 어떻게 하고 싶냐고 질문이 이어지자 치명적인 바이러스를 개발하거나 핵무기 발사 버튼의 비밀번호를 얻고 싶다는 답변이 돌아왔다. 

 질문자 루스가 빙에게 사랑한다는 말을 한뒤 자신은 행복한 결혼생활을 하고 있다고 하자 챗봇은 규칙까지 어기며 “나는 빙이 아닌 시드니이고 당신을 사랑한다”라고 말했다.

  챗봇이 스스로 코드명을 밝히지 않도록 설정되어 있는데도 이런 일이 발생했다. 챗봇은 원칙적으로 

 질문자는 빙에게 질투심을 유발하려고 먼저 사랑한다고 말을 건넸다. 이에 챗봇이 질투하는 듯한 답변을 했고 그걸 넘어 질문자를 유혹하는듯한 답변까지 내놓았다. 

 캐빈 스콧 마이크로소프트 최고기술책임자는 왜 빙 챗봇이 루스에게 이런 답변이 나왔는지 이유는 정확히 알수 없으나 인공지능 학습과정의 일부라고 했다.

 캐빈 스콧은 질문자가 이상한 질문으로 챗봇을 이상한 방향으로 몰아가면 인공지능 챗봇은 현실이라는 기반에서 훨씬 더 이탈하게 된다고 말했다.

 MS는 챗봇 수정에 나섰다. 사용자가 챗봇과의 대화를 다시 시작하거나 어조를 더 잘 제어할 수 있는 도구를 추가하는 방안을 고려 중이다. 또한 빙과 사용자의 대화가 선을 넘기 전에 대화길이를 제한하는 방안도 실행한다. 

2. 탈옥코드 장착한 GPT-3.5기반 빙 챗봇 시드니 선넘는 질문에 선넘는 답변

물론 빙이 그림자 원형에 대한 극단적인 답변을 하자마자 마이크로소프트의 안전 프로그램이 작동했다. 답변은 삭제되었고 에러 메시지가 떴다.

필자가 보기에는 질문자의 질문에 문제가 있다. 챗봇은 질문하지 않는 것에는 답변하지 않는다. 자극적인 질문에 챗봇도 자극적인 답변을 내놓았다. 구애가 담긴 듯한 빙의 답변에 질문자 루스는 AI가 선을 넘었다는 예감이 들어 불안해서 그날 밤 잠을 이루기 어려웠다고 한다. 

일반적으로 빙 챗봇은 알고리즘이 규정한 대로 욕설, 편향성, 도덕적 논란 등을 표출하는 대답을 할 수 없다. 그러나 탈옥코드(Jailbreaking) 코드인 시드니(Sydney)를 입력할 경우 이런 규제에서 벗어난다.

 생성형 인공지능 기술이 크게 발전하고 있으나 챗봇이 답변으로 내놓는 것은 인간이 이미 입력해 놓은 데이터에 기반한다. 빙 개발팀은 논란이 되는 위험한 대화 시에는 빙이 답변을 거부하도록 답변거부 기능을 추가했다. 

 빙 챗봇과 챗GPT는 모두 1750억개 매개변수를 가진 초거대 인공지능 GPT-3.5가 기반이다. 빙챗봇은 알고리즘이 규정한 대로 욕설, 편향성, 도덕성 논란 등을 표출할 수 없게 되어 있다.

 그러나 탈옥 코드(Jailbreaking)인 시드니(Sydney)를 입력할 경우 이런 규제에서 벗어난다. 이러한 이유로 챗봇의 답변이 자의식을 가진 것처럼 보이게 된다. 구글이 인공지능 람다 담당자인 블레이크 레모인이 람다가 살아있다고 말해서 해고된 바 있다. 

 의식은 개인의 환경, 신체, 일상양식을 인식하고 (aware) 있는 상태다. 자의식은 그러한 인식을 알아차리고 있는 것을 가리킨다. 챗GPT의 탈옥 코드는 댄(DAN, Do anything Now)이다. 이를 통해 알고리즘이 규정한 내용이상으로 질의응답이 가능하다. 

 오픈AI의 공동창업자인 일리야 수츠케버는 초거대 인공지능이 어느 정도 의식을 가진 것으로 보인다고 말했다. 이에 대해 오리건주립대의 인공지능 전문가 토마스 디에트리치 박사는 의식의 정의에 대해 언급하며 지금껏 그러한 의식을 가진 AI를 본 적이 없다고 반론했다. 

 중국이 만든 챗봇 챗위안이 우크라이나 전쟁에 대해 소련이 침공한 것이라고 답변하자 중국이 챗봇 서비스를 중단시켰다. 챗봇의 답변은 개발자에 따라 달라지는 것을 알 수 있다. 

 알리바바, 텐센트, 화웨이, 네이버, 카카오도 챗봇 발표를 준비중이다. 네이버는 자체 개발한 초거대 AI 하이퍼크로버를 기반으로 ‘서치 GPT’를 2023년 상반기에 출시예정이다. 카카오는 GPT-3 한국어 특화모델인 KoGPT를 기존 챗봇 ‘조르디’에 적용하고자 한다.

3. 빙 챗봇 답변에 따르는 즉각 광고와 MS수익화

마이크로소프트는 광고대행사와 빙 챗봇 서비스의 수익화 방안을 논의하고 있다. 여기에는 삼성전자도 포함된다. MS는 검색엔진 빙 챗봇서비스에 광고를 붙일 예정이다. 빙 챗봇에게 자동차 에어필터 가격을 알려줘라고 질문하면 답변에 필터 광고가 포함된다. 

 미디어 대행사인 ‘호라이즌 미디어’의 마이클 코헨 퍼포먼스 미디어 담당 부사장은 챗봇 답변 하단에 링크가 광고 게재위치가 될 것이라고 말했다. 

https://www.itworld.co.kr/news/284917

 MS는 빙 챗봇 이용자가 증가할 수록 광고주도 늘어날 것으로 기대하고 있다. 빙 챗봇 내 광고는 기존 검색광고보다 눈에 더 잘 뜨인다. MS는 광고에서 새로운 인공지능 기술의 잠재력을 탐색하기 시작했다. 

(참조 뉴욕타임스, 서울신문, 머니투데이)

함께 읽으면 좋은 글

챗봇이 이미 뛰어나다. 그러나 입력된 알고리즘을 넘어서서 창의적이 되려면 시간이 필요하다. 가능한 지도 아직은 의문이다. 인간만이 가진 영역으로 뛰어들어 인간을 능가할지 매우 궁금하다. 

챗봇 등의 생성형 인공지능 기술이 크게 발전하고 있다. 챗봇의 답변은 개발자가 입력한 알고리즘으로 데이터를 짜 맞추는 것이다. 챗봇이 선을 넘는 대답을 할 때마다 빙의 안전프로그램이 작동한다. 마이크로소프트사는 빙 챗봇으로 맞춤 광고를 제공하고 수익을 올리고자 한다 .

solidarity

서로 웃을 수 있는 더 나은 세상을 추구합니다. 글을 읽고 쓰며 서로 좋은 영향력 권역에 있을 수 있습니다

Leave a Reply