Apple sẽ báo cáo các hình ảnh bóc lột trẻ em được tải lên iCloud ở Hoa Kỳ cho cơ quan thực thi pháp luật, công ty cho biết vào thứ Năm.
Hệ thống mới sẽ phát hiện các hình ảnh được gọi là Tài liệu Lạm dụng Tình dục Trẻ em (CSAM) bằng cách sử dụng một quy trình gọi là băm, trong đó hình ảnh được chuyển đổi thành các số duy nhất tương ứng với hình ảnh đó.
Apple đã bắt đầu thử nghiệm hệ thống này vào thứ Năm, nhưng hầu hết người dùng iPhone ở Hoa Kỳ sẽ không tham gia vào hệ thống này cho đến khi có bản cập nhật iOS 15 vào cuối năm nay, Apple cho biết.
Động thái này giúp Apple tương thích với các dịch vụ đám mây khác đã quét tệp người dùng, thường sử dụng hệ thống băm, để tìm nội dung vi phạm điều khoản dịch vụ của họ, bao gồm cả hình ảnh khai thác trẻ em.
Nó cũng đại diện cho một thử nghiệm đối với Apple, trong đó nói rằng hệ thống của họ riêng tư hơn cho người dùng so với các cách tiếp cận trước đây để loại bỏ các hình ảnh lạm dụng tình dục trẻ em bất hợp pháp, vì nó sử dụng mật mã tinh vi trên cả máy chủ và thiết bị người dùng của Apple và không quét hình ảnh thực tế, chỉ băm.
Tuy nhiên, nhiều người dùng nhạy cảm với quyền riêng tư vẫn bị ảnh hưởng bởi phần mềm thông báo cho chính phủ (Hoa Kỳ) về nội dung trên thiết bị hoặc trên đám mây và có thể phản ứng tiêu cực với thông báo này, đặc biệt là vì Apple đã hết sức bảo vệ mã hóa thiết bị và hoạt động ở các quốc gia có ít biện pháp bảo vệ lời nói hơn là ở Hoa Kỳ.
Các quan chức thực thi pháp luật trên khắp thế giới cũng đã gây áp lực buộc Apple phải làm suy yếu khả năng mã hóa của iMessage và các dịch vụ phần mềm khác như iCloud để điều tra hành vi bóc lột trẻ em hoặc khủng bố. Thông báo hôm thứ Năm là một cách để Apple giải quyết một số vấn đề đó mà không từ bỏ một số nguyên tắc kỹ thuật của mình về quyền riêng tư của người dùng.
Làm thế nào nó hoạt động
Trước khi hình ảnh được lưu trữ trong iCloud của Apple, Apple sẽ đối sánh hàm băm của hình ảnh đó với cơ sở dữ liệu hàm băm do Trung tâm Quốc gia về Trẻ em mất tích và Bị bóc lột (NCMEC) cung cấp. Cơ sở dữ liệu đó sẽ được phân phối dưới dạng mã của iOS bắt đầu với bản cập nhật lên iOS 15. Quá trình đối sánh được thực hiện trên iPhone của người dùng, không phải trên đám mây, Apple cho biết.
Nếu sau đó Apple phát hiện một số tệp vi phạm nhất định trong tài khoản iCloud, hệ thống sẽ tải lên một tệp cho phép Apple giải mã và xem các hình ảnh trên tài khoản đó. Một người sẽ xem xét các hình ảnh theo cách thủ công để xác nhận xem có trùng khớp hay không.
Apple sẽ chỉ có thể xem xét các hình ảnh phù hợp với nội dung đã được biết đến và báo cáo với các cơ sở dữ liệu này - ví dụ: nó sẽ không thể phát hiện ảnh của cha mẹ về con cái của họ trong bồn tắm, vì những hình ảnh này sẽ không phải là một phần của cơ sở dữ liệu NCMEC.
Nếu người thực hiện đánh giá thủ công kết luận hệ thống không có lỗi, thì Apple sẽ vô hiệu hóa tài khoản iCloud của người dùng và gửi báo cáo tới NCMEC hoặc thông báo cho cơ quan thực thi pháp luật nếu cần. Người dùng có thể gửi đơn khiếu nại lên Apple nếu họ cho rằng tài khoản của họ bị gắn cờ do nhầm lẫn, một đại diện của Apple cho biết.
Hệ thống chỉ hoạt động trên các hình ảnh được tải lên iCloud mà người dùng có thể tắt, Apple cho biết. Ảnh hoặc các hình ảnh khác trên thiết bị chưa được tải lên máy chủ của Apple sẽ không thuộc hệ thống.
Một số nhà nghiên cứu bảo mật đã đưa ra lo ngại rằng công nghệ này cuối cùng có thể được sử dụng để xác định các loại hình ảnh khác, chẳng hạn như ảnh của một cuộc biểu tình chính trị. Apple nói rằng hệ thống của họ được xây dựng để nó chỉ hoạt động và chỉ có thể hoạt động với các hình ảnh được NCMEC hoặc các tổ chức an toàn trẻ em khác lập danh mục và cách họ xây dựng mật mã ngăn nó được sử dụng cho các mục đích khác.
Apple không thể thêm các hàm băm bổ sung vào cơ sở dữ liệu. Apple cho biết họ đang trình bày hệ thống của mình cho các chuyên gia mật mã để chứng nhận rằng họ có thể phát hiện các hình ảnh khai thác trẻ em bất hợp pháp mà không ảnh hưởng đến quyền riêng tư của người dùng.
Apple đã công bố tính năng này vào thứ Năm cùng với các tính năng khác nhằm bảo vệ trẻ em khỏi những kẻ săn mồi. Trong một tính năng riêng biệt, Apple sẽ sử dụng công nghệ máy học trên iPhone của trẻ em có tài khoản gia đình để làm mờ các hình ảnh có thể chứa ảnh khỏa thân và cha mẹ có thể chọn nhận thông báo khi trẻ dưới 13 tuổi nhận được nội dung khiêu dâm trong iMessage. Apple cũng cập nhật Siri với thông tin về cách báo cáo hành vi bóc lột trẻ em.