Billvn - Theo Trí Thức Trẻ | 09:58 31/12/2017

AI của giúp phân loại video của YouTube khiến lượng video xấu liên quan trẻ em tăng lên

AI của giúp phân loại video của YouTube khiến lượng video xấu liên quan trẻ em tăng lên

Các chuyên gia cho rằng YouTube cần một bộ tiêu chuẩn chi tiết hơn nếu muốn kiểm soát tốt các nội dung xấu, đặc biệt là liên quan đến trẻ em trên nền tảng của mình.

YouTube sử dụng các thuật toán và nhân viên kiểm duyệt là con người, nhưng họ vẫn không thể ngăn sự gia tăng những video gây tranh cãi, bóc lột trẻ em trên nền tảng này. Tại sao?

Vâng, có thể là do nhiều lý do - một trong số đó, theo báo cáo của BuzzFeed, là bộ hướng dẫn khó hiểu của công ty cho nhân viên để họ tuân theo khi đánh giá nội dung. Họ đã phỏng vấn những người giúp đào tạo AI để xếp hạng video và nhận ra rằng các nhân viên thường được hướng dẫn để xếp hạng cao cho video dựa chủ yếu vào giá trị sản xuất.

Một nhân viên của YouTube nói rằng: “Ngay cả khi một đoạn video gây rối hoặc bạo lực, chúng tôi có thể gắn cờ nhưng vẫn phải nói rằng chất lượng cao (nếu nhiệm vụ yêu cầu)”.

Điều đó có nghĩa là người đánh giá phải đánh dấu video là "chất lượng cao" ngay cả khi chúng có nội dung xấu dù biết rằng điều này có thể khiến video có kết quả tìm kiếm tăng lên. Vấn đề? Video khai thác trẻ em được tìm thấy trên nền tảng này thường có chất lượng biên tập, chỉnh sửa khá tốt.

Sau khi giới truyền thông chú ý đến sự tồn tại của các video gây rối cho trẻ em, YouTube bắt đầu yêu cầu người đánh giá quyết định xem video có phù hợp với người xem từ 9 đến 12 tuổi ngay cả khi không được giám sát. Họ được yêu cầu đánh dấu đoạn video là "OK" nếu họ nghĩ rằng một đứa trẻ có thể xem nó hoặc “NOT OK” nếu nó chứa nội dung khiêu dâm, bạo lực, ngôn ngữ thô tục, sử dụng ma túy hoặc hành động khuyến khích hành vi xấu, chẳng hạn như trò hề.

Tuy nhiên, BuzzFeed cũng tìm ra các ví dụ về video có thể gây hiểu nhầm trên nền tảng YouTube. Ví dụ, video âm nhạc Bad Blood của Taylor Swift là “NOT OK” dựa trên các quy định của nền tảng này. Nhưng những video có chứa bạo lực gia đình lại được gắn mác “OK”.

Bart Selman, giáo sư Đại học Cornell về trí tuệ nhân tạo, nói với BuzzFeed: “Đây là một trong những ví dụ mà chúng tôi gọi là “sai lệch giá trị”. Đó là một sai lệch giá trị về những gì tốt nhất cho doanh thu của công ty so với những gì tốt nhất cho lợi ích xã hội. Nội dung gây tranh cãi và cực đoan - video, văn bản hoặc tin tức - lan rộng hơn và do đó dẫn đến nhiều lượt xem hơn, từ đó mang về nhiều doanh thu hơn”.

YouTube sẽ phải ban hành một bộ hướng dẫn cụ thể hơn để các nhân viên không bị nhầm lẫn khi đánh giá nội dung video. Nếu không, dù có 10.000 kiểm duyệt các nội dung video cũng không mang lại kết quả đáng kể nào.

Tham khảo: Engadget