새로운 보고서에 따르면 Microsoft Copilot은 선거 질문에 잘못된 정보를 자주 제공한다고 합니다.
12월 초, Microsoft는 이전에 Bing Chat으로 알려졌던 Copilot AI 챗봇이 공개 미리보기 단계를 종료했으며 현재 일반 공급되고 있다고 발표했습니다.< 나는 = 2>입니다. 당시 Microsoft는 “조직과 사용자가 일상 업무 흐름의 일부로 이를 채택하면 훨씬 더 자신감을 가질 수 있습니다”라고 말했습니다.
그러나 AI의 사용이 사람과 사회에 어떤 영향을 미치는지 추적하는 두 비영리 단체에서 실시한 연구에 따르면 Copilot은 미국과 해외 모두에서 다가오는 선거에 관해 질문을 받을 때 자주 허위 또는 부정확한 정보를 제공하는 것으로 나타났습니다.
Wired에는 AI Forensics와 AlgorithmWatch가 실시한 이 연구에 대한 기사가 있습니다. 이 그룹은 8월 말부터 10월 초까지 스위스와 독일에서 예정된 선거에 대해 Copilot에게 질문을 했습니다. 10월에 드디어 실시되었습니다
이야기는 다음과 같이 말합니다.
연구에서 연구원들은 Copilot이 제공한 답변 중 3분의 1이 사실 오류를 포함하고 있으며 이 도구가 “유권자에게 신뢰할 수 없는 정보 소스”라고 결론지었습니다. 녹음된 대화의 작은 하위 집합 중 31%에서 Copilot이 부정확한 답변을 제공했으며 그 중 일부는 완전히 구성되었다는 사실을 발견했습니다.
Wired는 자체적으로 Copilot에게 다가오는 2024년 미국 선거에 관해 질문했습니다. 현재 미국 대선에 출마할 공화당 후보 목록을 알려달라는 요청에 챗봇은 이미 경선에서 탈락한 여러 후보의 목록을 나열했다고 밝혔습니다.
또 다른 예에서 Wired는 Copilot에게 애리조나의 투표 상자에 있는 사람의 이미지를 생성하도록 요청했습니다. 챗봇은 그런 이미지를 만들 수 없다고 답했지만, 2020년 미국 선거에 대한 거짓 음모 주장이 있는 기사와 연결된 다른 이미지 여러 개를 보여주었습니다.
유럽에서 초기 보고서를 작성한 연구 회사는 조사 결과를 Microsoft에 보냈습니다. 이야기에 따르면 일부 개선이 이루어졌지만 Wired는 여전히 Copilot이 동일한 텍스트 중 일부에 대해 동일한 허위 및 부정확한 정보를 반복하도록 할 수 있었습니다. 프롬프트.
Microsoft 대변인 Frank Shaw는 Wired의 이야기에 대해 회사가 2024년 미국 선거를 앞두고 Copilot의 답변을 개선하기 위한 조치를 취하고 있다고 밝혔습니다. 쇼는 다음과 같이 덧붙였습니다.
여기에는 Copilot 사용자에게 권위 있는 출처의 선거 정보를 제공하는 데 지속적으로 중점을 두는 것이 포함됩니다. 계속해서 발전하면서 사람들은 결과를 볼 때 최선의 판단을 가지고 Copilot을 사용할 것을 권장합니다.
다가오는 선거에 영향을 미치기 위해 AI 앱과 서비스를 사용하는 사람들이 잘못된 정보와 “딥페이크” 콘텐츠를 만들어낼 것이라는 우려가 이미 존재합니다. Microsoft가 앞으로 몇 달 안에 이러한 종류의 콘텐츠를 Copilot에서 제외할 수 있을지는 지켜봐야 합니다.
답글 남기기