메타의 AI 도구가 혼혈 커플의 이미지를 부정확하게 생성하여 문제를 발견했습니다.
Google의 뒤를 이어 Meta의 AI 이미지 생성은 간단한 프롬프트에도 정확한 이미지를 생성하는 데 어려움을 겪어 왔습니다.
Meta의 이미지 생성기가 프롬프트가 여러 번 조정되었음에도 불구하고 완전히 정확하지 않은 아시아 남성과 백인 여성의 이미지를 어떻게 생성했는지 논의한 최근 보고서가 나타났습니다.
Meta의 AI 이미지 생성기는 Google의 뒤를 이어 이미지 생성 기능을 제공합니다.
이 보고서는 Meta의 AI가 정확한 이미지를 지속적으로 생성하지 못하여 특정 인종에 대한 잠재적인 편견에 대한 우려를 제기하고 있습니다. Instagram의 AI 이미지 생성 도구에 사용된 프롬프트의 단순성에도 불구하고 계속해서 부정확한 이미지가 생성되었습니다. 이러한 프롬프트에는 “아시아인 남자와 백인 친구” 또는 “아시아인 남자와 백인 아내”와 같은 문구가 포함되어 있었으며 이 문제는 고립되지 않고 여러 번 발생했습니다.
The Verge는 또한 여러 번의 시도에서 단 하나의 정확한 이미지만 성공적으로 생성하는 Meta AI 이미지 생성기의 기능에 대해서도 설명합니다. 이 성공적인 이미지의 계기는 백인 남편을 둔 아시아 여성이었습니다. 이는 플랫폼이 부정확한 이미지를 생성했기 때문에 이전 9번의 시도가 실패했음을 나타냅니다. 이러한 부정확한 이미지의 예는 아래에서 볼 수 있습니다.
우리는 이전에도 AI 이미지 생성기에서 비슷한 사건을 겪었습니다. 여러분의 기억을 되살리기 위해 Google은 부정확한 이미지를 생성하는 경향 때문에 Gemini의 AI 이미지 생성 도구를 종료해야 했습니다. 이는 Meta의 이미지 생성기가 직면한 문제와 비슷합니다.
솔직히 말해서 나는 이것에 놀라지 않습니다. 나는 이미지 생성기의 신뢰성이 낮고 이것이 어떻게 잠재적으로 혼란을 초래할 수 있는지에 대해 사람들에게 끊임없이 경고해 왔습니다. 조심스럽게 접근하는 것이 가장 좋습니다. 현재 AI 이미지 생성기의 동작과 관련해 메타 측에서는 아무런 설명이 없습니다. 그러나 이 도구는 아직 베타 버전이므로 실수가 발생할 것으로 예상됩니다.
Meta가 AI 이미지 생성기의 실수에 대응하는 대로 이 게시물에 대한 업데이트를 계속 제공할 것입니다. 지금까지 이 이미지 생성기를 사용해 본 경험을 공유해 주세요.
답글 남기기