Theo Mashable, trước đây, Facebook thường dựa vào báo cáo của người dùng và đánh giá của nhân viên để xác định một video livestream có vi phạm 'Tiêu chuẩn cộng đồng' của hãng hay không. Tuy nhiên, cách này có nhược điểm là phải dựa vào ý kiến chủ quan và khó lòng xử lí hết được nếu số lượng báo cáo quá lớn.
Tại một cuộc họp vừa được tổ chức tại trụ sở Facebook vừa qua, Joaquin Candela, giám đốc bộ phận ứng dụng máy học (machine learning) của hãng cho biết họ đang lên kế hoạch thử nghiệm AI để phát hiện các nội dung livestream vi phạm.
'Giao thức mới là một thuật toán cho phép tìm ra ảnh bạo lực, khỏa thân hay bất cứ thứ gì vi phạm điều khoản của chúng tôi', ông Candela cho biết.
Facebook muốn ngăn chặn những nội dung video Live biến tướng, nhạy cảm.
Trước đó, Facebook đã thử nghiệm một thuật toán tương tự vào tháng Sáu để phát hiện những video vi phạm trong các nhóm (group). Giờ đây, Facebook muốn áp dụng thuật toán này cho cả các video phát sóng trực tiếp để giúp loại bỏ triệt để hơn các nội dung bạo lực hoặc khỏa thân trên News Feed của người dùng.
Ông Candela cho biết thêm là hệ thống AI mới có thể sẽ hoạt động như một cách để đưa ra cảnh báo tới người dùng thay vì xóa video đang phát trực tiếp của họ ngay lập tức.
Bên cạnh việc phát triển AI, Facebook cũng phải trả lời được câu hỏi đâu mới là những nội dung được xem là 'không phù hợp'. Vào tháng Chín, Facebook đã từng bị chỉ trích mạnh mẽ sau khi cho xóa bỏ bức ảnh 'Em bé Napalm' có giá trị lịch sử chụp trong chiến tranh Việt Nam. Nguyên nhân dẫn tới việc này là do hệ thống kiểm duyệt hiện tại, tức là thông qua báo cáo của người dùng và đánh giá của nhân viên Facebook đã nhận định đó là một nội dung vi phạm theo ý kiến chủ quan.
Yann Lecun, giám đốc nghiên cứu AI của Facebook nhận thức được sự yếu kém của hệ thống kiểm duyệt hiện tại. Vì vậy, ông LeCun muốn tạo ra một hệ thống AI có thể đạt được sự cân bằng giữa việc chọn lọc và kiểm duyệt. Ví dụ như các video phát trực tiếp về việc trấn áp tội phạm hay ghi lại một vụ nổ súng, cần được xem xét kĩ vì có yếu tố bạo lực nhưng lại mang giá trị nội dung.
Hiện tại, hệ thống AI của Facebook vẫn đang nằm trong quá trình thử nghiệm. Facebook sẽ chỉ áp dụng khi xác định được độ tin cậy của hệ thống AI mới trong việc kiểm duyệt các nội dung livestream 'không phù hợp'.
Theo VnReview