Microsoft, Apple 및 기타 회사는 언어 장애가 있는 사용자를 위한 음성 인식을 위해 노력하고 있습니다.

Microsoft, Apple 및 기타 회사는 언어 장애가 있는 사용자를 위한 음성 인식을 위해 노력하고 있습니다.

Microsoft, Apple, Google, Meta 및 Amazon과 같은 주요 기술 회사는 장애인을 위한 음성 인식 기술을 개선하기 위해 노력하고 있습니다. 이 회사들은 음성 접근성 프로젝트 를 통해 일리노이 대학교(UIUC)와 협력 관계를 맺고 있습니다.

이 프로젝트는 루게릭병, 뇌성마비, 다운증후군 또는 파킨슨병 등으로 더 잘 알려진 ALS를 가진 사용자의 음성 인식을 개선하는 것을 목표로 하고 있습니다. Microsoft는 최근 AI를 사용하여 Windows에서 팀 통화를 개선했으며 Amazon은 오디오 아키텍처를 개선한 Echo Dot 및 Alexa Voice Remote Pro와 같은 새로운 Echo 장치를 출시했습니다. 아마도 미래에 프로젝트는 다양한 언어 패턴을 가진 사람들에게 그러한 제품을 확장하는 데 도움이 될 수 있습니다.

파킨슨병을 위한 Davis Phinney Foundations 및 Team Gleason과 같은 비영리 단체도 이 프로젝트를 위해 함께했습니다. 초점은 음성 인식 기술 및 번역 도구의 발전에도 불구하고 언어 패턴이 다른 사람들에게 장벽이 존재하는 방법에 있습니다.

UIUC의 Mark Hasegawa-Johnson 교수는 다음과 같이 말했습니다.

“음성 인터페이스는 장애인을 포함한 모든 사람이 액세스할 수 있어야 합니다. 이 작업은 많은 인프라, 이상적으로는 선도적인 기술 회사가 지원할 수 있는 인프라가 필요하기 때문에 어려운 작업이었습니다. 그래서 우리는 언어학, 음성, AI, 보안 및 개인 정보 보호에 대한 전문 지식을 갖춘 고유한 다분야 팀을 만들었습니다.”

이 이니셔티브는 다양한 음성 패턴 또는 음성 장애가 있는 사용자로부터 음성 샘플을 가져와 기계 학습 모델을 훈련하기 위한 데이터 세트를 생성합니다. 첫째, 유급 자원봉사자를 고용하여 미국식 영어를 가르칠 것입니다.

출처: Engadget

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다