Hi-Tech

Facebook cho biết sẽ sử dụng AI để loại bỏ những bình luận xúc phạm

Facebook dành nhiều năm để xây dựng và triển khai trí tuệ nhân tạo để loại bỏ những bình luận ác ý trên hệ thống mạng xã hội khổng lồ của họ. Công ty cho biết họ đang sử dụng công nghệ để chủ động tìm kiếm gần 95% nội dung xúc phạm và gỡ bỏ chúng. Tuy nhiên, 5% nội dung còn lại rất khó giải quyết.



Ảnh: edition.cnn.com

Vào hôm thứ Năm (ngày 19/11/2020), Facebook cho biết rằng hệ thống trí tuệ nhân tạo của họ phát hiện 94.7% trong tổng số 22.1 triệu nội dung mang tính xúc phạm và gỡ bỏ chúng trong quý 3 của năm 2020; hệ thống AI cũng tìm ra 80.5% trong tổng số 6.9 triệu nội dung và gỡ bỏ chúng trong quý 3 vào năm trước.

Trong năm 2017, công ty đã có thể sử dụng hệ thống trí tuệ nhân tạo để chủ động tìm kiếm 24% trong tổng số những nội dung mang tính xúc phạm và gỡ chúng vào thời điểm đó. Các số liệu được lấy từ ấn bản mới nhất của báo cáo Community Standards Enforcement Report mà công ty bắt đầu phát hành hàng quý kể từ tháng 8.

Thông tin cập nhật đến chỉ vài ngày sau khi giám đốc điều hành của Facebook - Mark Zuckerberg bị ra điều trần trước quốc hội về luật an ninh mạng, trong đó, ông liên tục chỉ ra sự phụ thuộc của công ty vào các thuật toán để phát hiện nội dung khủng bố và bóc lột trẻ em trước khi bất kỳ ai nhìn thấy nó.

Cũng giống như các mạng xã hội khác, Facebook dựa trên hệ thống AI để giúp nhóm kiểm duyệt nội dung ngày càng tăng từng ngày trên nền tảng của Facebook và Instagram. Đó là nhiệm vụ khó khăn và kéo dài vô tận để loại bỏ những bài đăng và quảng cáo gây khó chịu của người dùng.

Trong một cuộc gọi video với phóng viên vào hôm thứ Tư, giám đốc công nghệ của Facebook, ông Mike Schroepfer giải thích rằng một vài công cụ AI gần đây nhất mà Facebook đang sử dụng để tìm kiếm những nội dung gây hại trước khi nó lan truyền, chẳng hạn một trong số đó sử dụng dữ liệu trực tuyến từ hệ thống Facebook để tự cải thiện, thay vì sử dụng dữ liệu ngoại tuyến. Ông cũng cho rằng mục tiêu của mình là thúc đẩy công nghệ này cho đến khi càng ít người thấy những nội dung độc hại trên mạng xã hội càng tốt. Trong quá khứ, Facebook đã bị chỉ trích vì tin tưởng nhân viên của mình quá nhiều, những người mà công việc của họ về bản chất có thể đẩy họ đến với những nội dung quá đáng sợ để xem, cũng như việc công nghệ AI không ngăn chặn được những thước phim phát sóng trực tiếp mang tính bạo lực như vụ xả súng ở nhà thờ Hồi giáo New Zealand vào tháng 3 năm 2019.

“Rõ ràng, chúng tôi sẽ không hài lòng cho đến khi chúng tôi hoàn thành nhiệm vụ,” Schroepfer nói rằng Facebook đang làm việc để nhận diện những biểu tượng có ý gây thù địch; công ty đã khởi động một bộ dữ liệu có sẵn công khai liên quan đến nội dung vào mùa xuân với hy vọng là giúp các nhà nghiên cứu cải thiện khả năng nhận diện nội dung này.

Vân Anh
(Lược dịch)

SIU Review - số 100

Thông tin tuyển dụng

Thông tin cần biết

icon Giá vàng
icon Tỷ giá ngoại tệ
icon Chứng khoán