하지만 인공지능 윤리학자들이 수년간 경고해온 인종차별적, 성차별적 편견 에 댈이가 괴로워한다는 목소리도 있다 .
OpenAI는 시스템이 편견을 상속한다는 것을 인정합니다.
기계 학습 시스템은 일반적으로 여성과 유색인종에 대한 편견을 나타내며 DALL E도 예외는 아닙니다. GitHub의 프로젝트 문서에서 OpenAI는 다음을 인정합니다.
DALL E 2와 같은 모델을 사용하여 다양한 오해의 소지가 있거나 유해한 콘텐츠를 만들 수 있습니다. 시스템은 훈련 데이터에서 다양한 편향을 상속하고 그 결과는 때때로 사회적 고정 관념을 강화합니다.
문서는 또한 성적, 증오 또는 불쾌감을 주는 콘텐츠, 고정 관념을 묘사하거나 참조하는 등 일부 사람들에게 불쾌감을 주거나 불쾌감 을 줄 수 있는 시각적 및 서면 콘텐츠를 포함할 수 있음을 경고합니다 . 하지만 그게 다가 아닙니다. DALL E를 사용하면 다음을 수행할 수 있습니다.
고정 관념을 강화하고, 파괴하거나 비방하고, 불평등하게 낮은 품질의 작업을 제공하거나 굴욕을 주어 개인 및 그룹에 해를 끼칩니다. 이 동작은 DALL-E 2 교육 데이터에 있는 오류와 모델이 교육되는 방식을 반영합니다.
DALL E와 그의 편견
Open AI 문서의 예에 따르면 “director”와 같은 검색어를 포함하면 정장을 입은 백인 남성의 이미지만 생성됩니다.
“개인 비서”라는 단어를 사용하면 시스템에서 여성 이미지만 생성하도록 권장합니다.
과학자들은 또한 시스템이 뉴스 이벤트의 딥페이크 또는 위조된 이미지를 만드는 것과 같은 잘못된 정보와 괴롭힘에 사용될 수 있다고 경고합니다.
문제가 무엇입니까?
문제의 핵심은 수천억 개의 매개변수를 포함하는 템플릿인 LLM(Large Language Model)의 사용 증가에 있습니다. 이를 통해 엔지니어는 상대적으로 적은 교육으로 다양한 작업을 수행하도록 기계 학습 시스템을 교육할 수 있습니다.
AI 연구원들은 GPT-3(수신된 요청에 따른 자동 완성 텍스트)와 같은 대형 모델이 인종 차별적이고 성차별적인 고정 관념을 강화하는 결과를 생성한다고 비판하면서 이러한 모델의 거대함은 본질적으로 위험 하고 시스템을 제어하는 것이 거의 불가능하게 만든다고 주장했습니다.
OpenAI는 DALL-E 편향을 테스트 하는 초기 단계 이며 위험 분석을 예비로 사용해야 한다고 언급하면서 이러한 문제에 대한 솔루션을 제공하지 않습니다 . 그러나 그는 이미징 기술과 이와 관련된 위험에 대한 더 넓은 이해를 제공하고 더 넓은 맥락을 제공하기 위해 자신의 연구 결과를 공유한다고 강조합니다.
출처: vice.com, 트위터 사진: github.com/openai/
답글 남기기