Meta đã xin lỗi tới người dùng vào thứ năm (27/2) và cho biết, họ đã sửa một "lỗi" khiến một số người dùng Instagram báo cáo về một loạt nội dung bạo lực và đồ họa được đề xuất trên trang "Reels" cá nhân của họ.
"Chúng tôi đã sửa một lỗi khiến một số người dùng thấy nội dung trong nguồn cấp dữ liệu Instagram Reels của họ mà không nên được đề xuất. Chúng tôi xin lỗi vì sai lầm này", một phát ngôn viên của Meta cho biết trong một tuyên bố. Tuyên bố này được đưa ra sau khi một số người dùng Instagram lên nhiều nền tảng truyền thông xã hội khác nhau để bày tỏ mối quan ngại về sự gia tăng gần đây của các đề xuất nội dung bạo lực và "không an toàn cho công việc".
Một số người dùng cho biết họ đã thấy những nội dung như vậy, ngay cả khi "Kiểm soát nội dung nhạy cảm" của Instagram được bật ở chế độ kiểm duyệt cao nhất. Theo chính sách của Meta, công ty nỗ lực bảo vệ người dùng khỏi hình ảnh gây khó chịu và xóa nội dung đặc biệt bạo lực hoặc đồ họa.
Nội dung bị cấm có thể bao gồm "video mô tả cảnh chặt xác, nội tạng lộ ra hoặc cơ thể bị cháy đen", cũng như "những lời nhận xét tàn bạo đối với hình ảnh mô tả sự đau khổ của con người và động vật".
Tuy nhiên, Meta cho biết họ cho phép một số nội dung đồ họa nếu chúng giúp người dùng lên án và nâng cao nhận thức về các vấn đề quan trọng như vi phạm nhân quyền, xung đột vũ trang hoặc hành động khủng bố. Nội dung như vậy có thể đi kèm với các hạn chế, chẳng hạn như nhãn cảnh báo.
Vào đêm thứ Tư tại Hoa Kỳ, người dùng đã có thể xem một số bài đăng trên Instagram Reels có vẻ như hiển thị xác chết, thương tích đồ họa và hành hung bạo lực. Các bài đăng được gắn nhãn là "Nội dung nhạy cảm". Trong khi đó, Meta cho biết hệ thống của họ đã hạ cấp quá nhiều nội dung dựa trên dự đoán rằng nội dung đó "có thể" vi phạm các tiêu chuẩn và họ đang trong quá trình "loại bỏ hầu hết các lần hạ cấp này".
Tổng giám đốc điều hành Mark Zuckerberg cũng thông báo rằng công ty sẽ cho phép nhiều nội dung chính trị hơn và thay đổi chương trình kiểm tra thông tin của bên thứ ba theo mô hình "Ghi chú cộng đồng", tương tự như hệ thống trên nền tảng X của Elon Musk.
Những động thái này được coi rộng rãi là nỗ lực của Zuckerberg nhằm hàn gắn mối quan hệ với Tổng thống Hoa Kỳ Donald Trump, người đã chỉ trích các chính sách kiểm duyệt của Meta trong quá khứ.
Theo người phát ngôn của Meta trên X, Tổng giám đốc điều hành đã đến thăm Nhà Trắng vào đầu tháng này "để thảo luận về cách Meta có thể giúp chính quyền bảo vệ và thúc đẩy vị thế dẫn đầu công nghệ của Hoa Kỳ ở nước ngoài".
Là một phần của làn sóng sa thải công nghệ vào năm 2022 và 2023, Meta đã cắt giảm 21.000 nhân viên, gần một phần tư lực lượng lao động của mình, điều này ảnh hưởng đến phần lớn các nhóm toàn vẹn công dân, lòng tin và an toàn của công ty.
Theo trang web của Meta, họ sử dụng công nghệ nội bộ và một nhóm gồm hơn 15.000 người đánh giá để giúp phát hiện hình ảnh gây khó chịu.
Công nghệ này, bao gồm trí tuệ nhân tạo và các công cụ học máy, giúp ưu tiên các bài đăng và xóa "phần lớn nội dung vi phạm" trước khi người dùng thậm chí báo cáo, trang web nêu rõ.
Hơn nữa, Meta nỗ lực tránh đề xuất nội dung trên các nền tảng của mình có thể "chất lượng thấp, phản cảm, nhạy cảm hoặc không phù hợp với người xem trẻ tuổi", công ty nói thêm.
Chính sách thay đổi
Tuy nhiên, lỗi với Instagram Reels xảy ra sau khi Meta công bố kế hoạch cập nhật các chính sách kiểm duyệt của mình nhằm thúc đẩy quyền tự do ngôn luận tốt hơn.
Trong một tuyên bố được công bố vào ngày 7 tháng 1, công ty cho biết họ sẽ thay đổi cách thực thi một số quy tắc về nội dung của mình để giảm thiểu các lỗi dẫn đến việc người dùng bị kiểm duyệt.
Meta cho biết điều này bao gồm việc chuyển các hệ thống tự động của mình từ việc quét "tất cả các vi phạm chính sách" sang tập trung vào "các hành vi vi phạm bất hợp pháp và nghiêm trọng, như khủng bố, bóc lột tình dục trẻ em, ma túy, gian lận và lừa đảo". Đối với các hành vi vi phạm chính sách ít nghiêm trọng hơn, công ty cho biết họ sẽ dựa vào người dùng để báo cáo sự cố trước khi thực hiện hành động.