Đây là khi một làn sóng thông tin sai lệch bất ngờ bắt đầu tràn vào News Feed.
Gần đây, một nhóm kỹ sư từ Facebook của Meta đã phát hiện lỗi lớn trong thuật toán xếp hạng. Điều này khiến khoảng một nửa lượt xem trên News Feed của họ gặp phải nội dung độc hại tiềm ẩn trong sáu tháng qua. Các tài liệu nội bộ tiết lộ cách các kỹ sư phát hiện ra vấn đề lần đầu tiên vào tháng 10 năm 2021. Đây là khi một làn sóng thông tin sai lệch bất ngờ bắt đầu tràn vào News Feed.
Nguồn cấp dữ liệu không hoạt động trong việc ngăn chặn các bài đăng từ những người vi phạm thông tin sai lệch. Mạng nội bộ của Facebook chịu trách nhiệm kiểm tra và chặn những người dùng đăng tin giả. Tuy nhiên, News Feed đẩy lượt view trên toàn thế giới ít nhất là 30% cho những thông tin sai lệch này. Không tìm thấy nguồn gốc vấn đề, kỹ sư lại tiếp tục chứng kiến sự việc. Tuy nhiên, họ đã chứng kiến nó tăng trở lại liên tục cho đến khi vấn đề của bảng xếp hạng cuối cùng đã được khắc phục vào thứ Sáu, ngày 11 tháng 3.
Cuộc điều tra nội bộ Facebook này cũng nhận thấy rằng nền tảng này không có khả năng giảm tải ảnh khỏa thân, bạo lực, cùng với các phương tiện truyền thông nhà nước của Nga gần đây đã bị nhắm mục tiêu do chiến tranh. Vấn đề này được gắn nhãn nội bộ là 'SEV cấp một.' - nhãn này chủ yếu được thiết kế cho các trường hợp kỹ thuật ưu tiên cao như trên Facebook và Instagram của Nga gần đây.
Theo đại diện của Meta, Joe Osborne cho rằng sự cố này xuất hiện từ khá lâu, lần đầu tiên, từ năm 2019 nhưng không ảnh hưởng lớn cho đến tháng 10/2021.
Gã khổng lồ truyền thông xã hội luôn coi việc hạ thứ hạng là một cách để cải thiện chất lượng News Feed của mình, mở rộng đều đặn các loại nội dung mà hệ thống hoạt động. Tuy nhiên, Facebook vẫn chưa tiết lộ cách nó ảnh hưởng đến những gì người dùng thực sự xem, cùng với hậu quả của hệ thống hoạt động.
Hạ thứ hạng hoạt động để ngăn chặn những gì nền tảng gọi là nội dung gần như vi phạm các quy tắc. Hơn nữa, hoạt động này cũng ngăn chặn nội dung mà hệ thống AI phát hiện là vi phạm mà có thể cần con người xem xét thêm. Thông thường, các nhà lãnh đạo của Facebook khoe khoang về việc hệ thống AI của họ được cải thiện mỗi năm trong việc xác định nội dung như kích động, nhạy cảm.