Meta – công ty mẹ của Facebook, Instagram và WhatsApp – đang lên kế hoạch để trí tuệ nhân tạo (AI) thay thế con người trong việc kiểm tra các rủi ro tiềm ẩn về quyền riêng tư và tác động tiêu cực từ những cập nhật mới của ứng dụng. Theo tài liệu nội bộ được NPR tiết lộ, hệ thống này có thể tự động xử lý tới 90% các bản cập nhật mà không cần đến sự can thiệp trực tiếp của con người.
Từ năm 2012, Meta đã ký thỏa thuận với Ủy ban Thương mại Liên bang Mỹ (FTC), cam kết phải tiến hành các đánh giá rủi ro riêng tư cho mọi thay đổi của sản phẩm. Trước đây, việc này do các chuyên gia thực hiện thủ công. Nhưng với hệ thống AI mới, các nhóm phát triển sản phẩm chỉ cần điền vào một bản câu hỏi mô tả tính năng mới, và AI sẽ lập tức đưa ra đánh giá rủi ro cùng với những yêu cầu cần đáp ứng trước khi tính năng được tung ra.
Cách làm này giúp Meta rút ngắn thời gian cập nhật sản phẩm. Tuy nhiên, một cựu giám đốc của công ty cảnh báo rằng việc để AI xử lý quá nhiều sẽ làm tăng rủi ro, bởi các hậu quả tiêu cực từ tính năng mới có thể bị bỏ qua trước khi chúng gây ảnh hưởng rộng rãi trong xã hội.
Đáp lại, người phát ngôn của Meta khẳng định công ty đã đầu tư hơn 8 tỷ USD vào chương trình bảo vệ quyền riêng tư và luôn nỗ lực vừa đổi mới sản phẩm, vừa đảm bảo tuân thủ quy định. Meta cho biết họ dùng AI để tăng tính nhất quán và hiệu quả với các quyết định rủi ro thấp, còn các vấn đề phức tạp hoặc mới lạ vẫn sẽ do con người đánh giá trực tiếp.
Việc Meta dần thay thế con người bằng AI trong các bước kiểm soát rủi ro đang làm dấy lên tranh cãi: liệu tốc độ có đang được đặt lên trên sự an toàn và trách nhiệm?