Đại học Illinois (UIUC) đã công bố hợp tác với Apple, Microsoft, Google, Amazon, Meta và một tổ chức phi lợi nhuận để phát triển một dự án chức năng hỗ trợ giọng nói nhằm cải thiện khả năng nhận dạng giọng nói cho người khuyết tật và các mẫu giọng nói khác nhau không được AI đề cập các thuật toán.
Theo báo cáo, dự án sẽ giúp đỡ những người bị bệnh xơ cứng teo cơ một bên (ALS), bệnh Parkinson, bại não, hội chứng Down và các bệnh lý khác ảnh hưởng đến giọng nói.
Giáo sư Mark Hasegawa-Johnson của UIUC cho biết, “Tính năng nhận dạng giọng nói nên có sẵn cho tất cả mọi người, kể cả người khuyết tật và nhiệm vụ này rất khó khăn vì nó đòi hỏi rất nhiều cơ sở hạ tầng, lý tưởng là loại có thể được hỗ trợ bởi các công ty công nghệ hàng đầu, vì vậy chúng tôi đã tạo ra một nhóm liên ngành duy nhất có chuyên môn về ngôn ngữ học, lời nói, trí tuệ nhân tạo, bảo mật và quyền riêng tư ”.
Dự án sẽ thu thập các mẫu giọng nói từ các cá nhân đại diện cho nhiều mẫu giọng nói khác nhau, trong khi UIUC sẽ tuyển dụng các tình nguyện viên được trả tiền để đóng góp các mẫu giọng nói và giúp tạo tập dữ liệu “riêng tư, không nhận dạng” để đào tạo các mô hình máy học. Dự án ban đầu sẽ tập trung vào nhận dạng tiếng Anh Mỹ.