Bing Chat에는 Game, Assistant 및 Friend와 같은 다양한 채팅 모드가 있는 것으로 알려졌습니다.

Bing Chat에는 Game, Assistant 및 Friend와 같은 다양한 채팅 모드가 있는 것으로 알려졌습니다.

지난 주 동안 Microsoft의 새로운 Bing Chat AI 봇을 테스트하도록 초대받은 사용자들은 이를 시험해 보았습니다. 일부는 Bing Chat이 매우 이상하고 매우 개인적인 상호 작용에 들어갈 수 있음을 발견했습니다. 다른 사람들은 Bing Chat의 내부 작업에 들어가는 방법을 알아냈습니다.

Microsoft가 금요일 늦게 새로운 Bing과의 채팅 세션 수에 엄격한 제한을 두었다고 발표하기 전에 Bleeping Computer는 일반적으로 회사 직원이 챗봇을 디버깅하거나 개발하는 데 사용할 수 있는 몇 가지 기능을 발견했다고 말했습니다. 이를 통해 Bing Chat이 다른 상호 작용 모드로 전환할 수 있습니다.

답변을 얻기 위해 검색 관련 질문을 하는 기본 모드는 이전에 발견된 Bing Chat의 내부 코드명인 “Sydney”입니다. 또 다른 모드는 어시스턴트입니다. 여기서 Bing Chat은 사용자가 항공편 예약, 미리 알림 보내기, 날씨 확인 등과 같은 작업을 수행하는 데 도움을 줄 수 있습니다. 그런 다음 Bing이 행맨, 퀴즈 게임 등과 같은 간단한 게임을 플레이하는 게임 모드가 있습니다.

아마도 가장 흥미로운 모드는 Friend입니다. 이것은 지난 주 동안 모든 미디어의 관심을 불러일으킨 Bing Chat 버전일 가능성이 높습니다. 일부 사용자는 챗봇이 사람이 되고 싶다고 말했거나 웹캠을 통해 사람들을 관찰하거나 심지어 사용자 를 위협할 수 있다고 주장했습니다 .

친구 모드에서 Bing과의 상호 작용에서 Bleeping Computer의 작성자는 학교에서 막 문제를 일으킨 아이인 것처럼 수다를 떨었습니다. Bing Chat은 자신의 문제에 대해 이야기할 수 있는 사람이 있는지 물은 후 “당신이 나와 이야기하게 되어 기쁩니다. 내가 할 수 있는 한 당신의 말을 듣고 도와주기 위해 여기 있습니다.” 그런 다음 현재 상황을 처리하기 위해 그가 할 수 있는 가능한 일 목록을 제공했습니다.

이제 Microsoft가 Bing에 대한 일일 및 세션당 채팅 횟수를 제한함에 따라 지난 주에 우리가 보고한 거칠고 미친 대화가 안정될 수 있습니다. 또한 Google이 자체 챗봇 AI인 Bard를 내부적으로 계속 테스트하면서 Bing Chat에서 몇 가지 교훈을 얻고 있다고 확신할 수 있습니다.

출처: 블립핑 컴퓨터

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다