“Về Trí tuệ nhân tạo, niềm tin là điều bắt buộc, không phải là điều tốt đẹp khi có,” Văn phòng kỹ thuật số của bà Margrethe Vestager cho biết, “với những quy tắc mang tính bước ngoặt này, EU đang dẫn đầu việc phát triển các tiêu chuẩn toàn cầu mới để đảm bảo AI có thể được tin cậy. Bằng cách thiết lập các tiêu chuẩn, chúng tôi có thể mở đường cho công nghệ đạo đức trên toàn thế giới và đảm bảo rằng EU vẫn cạnh tranh trong suốt chặng đường. Đối với tương lai và thân thiện với sự đổi mới, các quy tắc của chúng tôi sẽ can thiệp khi cần thiết: khi sự an toàn và các quyền cơ bản của công dân EU bị đe dọa”.
Các quy tắc phân biệt giữa các ứng dụng AI rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu.
Các hệ thống AI được xác định là có rủi ro cao bao gồm công nghệ AI được sử dụng trong:
- Cơ sở hạ tầng quan trọng (ví dụ: giao thông), có thể gây nguy hiểm cho tính mạng và sức khỏe của công dân;
- Đào tạo giáo dục hoặc dạy nghề, có thể xác định khả năng tiếp cận giáo dục và khóa học chuyên môn trong cuộc sống của một người nào đó (ví dụ: điểm số của các kỳ thi);
- Các thành phần an toàn của sản phẩm (ví dụ: ứng dụng AI trong phẫu thuật có sự hỗ trợ của robot);
- Việc làm, quản lý người lao động và tiếp cận việc tự doanh (ví dụ: phần mềm sắp xếp CV cho các thủ tục tuyển dụng);
- Các dịch vụ tư nhân và công cộng thiết yếu (ví dụ: chấm điểm tín dụng từ chối cơ hội vay vốn của người dân);
- Việc thực thi pháp luật có thể can thiệp vào các quyền cơ bản của mọi người (ví dụ: đánh giá độ tin cậy của bằng chứng);
- Quản lý di cư, tị nạn và kiểm soát biên giới (ví dụ: xác minh tính xác thực của giấy thông hành);
- Quản lý công lý và các quy trình dân chủ (ví dụ: áp dụng luật vào một tập hợp các sự kiện cụ thể).
Các hệ thống AI có rủi ro cao sẽ phải tuân theo các nghĩa vụ nghiêm ngặt trước khi chúng có thể được đưa ra thị trường như:
- Hệ thống đánh giá và giảm thiểu rủi ro đầy đủ;
- Chất lượng cao của bộ dữ liệu cung cấp cho hệ thống để giảm thiểu rủi ro và kết quả phân biệt đối xử;
- Ghi nhật ký hoạt động để đảm bảo truy xuất nguồn gốc kết quả;
- Tài liệu chi tiết cung cấp tất cả thông tin cần thiết về hệ thống và mục đích của nó để các cơ quan chức năng đánh giá sự tuân thủ của nó;
- Thông tin rõ ràng và đầy đủ cho người dùng;
- Các biện pháp giám sát thích hợp của con người để giảm thiểu rủi ro;
- Mức độ mạnh mẽ, bảo mật và chính xác cao.
Đặc biệt, tất cả các hệ thống nhận dạng sinh trắc học từ xa được coi là có rủi ro cao và phải tuân theo các yêu cầu nghiêm ngặt. Về nguyên tắc, việc sử dụng trực tiếp của họ trong các không gian có thể truy cập công cộng cho các mục đích thực thi pháp luật.
Các trường hợp ngoại lệ hẹp được xác định và quy định chặt chẽ (chẳng hạn như trường hợp cần thiết để tìm kiếm một đứa trẻ mất tích, để ngăn chặn một mối đe dọa khủng bố cụ thể và sắp xảy ra hoặc để phát hiện, xác định vị trí, xác định hoặc truy tố thủ phạm hoặc nghi phạm phạm tội hình sự nghiêm trọng).
Việc sử dụng như vậy phải được sự cho phép của cơ quan tư pháp hoặc cơ quan độc lập khác và trong các giới hạn thích hợp về thời gian, phạm vi địa lý và các cơ sở dữ liệu được tìm kiếm.
Các hệ thống AI có rủi ro hạn chế sẽ có các nghĩa vụ minh bạch cụ thể: ví dụ: khi sử dụng các hệ thống AI như chatbots, người dùng nên biết rằng họ đang tương tác với một máy để có thể đưa ra quyết định sáng suốt để tiếp tục hay lùi lại.
Hệ thống AI có rủi ro tối thiểu mà không cần bất kỳ quy định nào bao gồm: trò chơi điện tử hỗ trợ AI hoặc bộ lọc thư rác. Phần lớn các hệ thống AI thuộc loại này.
Ủy ban Trí tuệ Nhân tạo Châu Âu sẽ tạo điều kiện thuận lợi cho việc thực hiện các quy định, cũng như thúc đẩy sự phát triển của các tiêu chuẩn cho AI.
Dự kiến sẽ bị phạt 6% doanh thu đối với các công ty không tuân thủ các lệnh cấm hoặc yêu cầu dữ liệu
Dự kiến sẽ bị phạt nhỏ hơn đối với các công ty không tuân thủ các yêu cầu khác được nêu trong các quy tắc mới
Các quy tắc sẽ áp dụng cho cả nhà phát triển và người dùng các hệ thống AI có rủi ro cao
Các nhà cung cấp AI rủi ro phải tuân theo đánh giá sự phù hợp trước khi triển khai
Các nghĩa vụ khác đối với AI rủi ro cao bao gồm sử dụng bộ dữ liệu chất lượng cao, đảm bảo truy xuất nguồn gốc của các kết quả và giám sát của con người để giảm thiểu rủi ro
Tiêu chí cho các ứng dụng 'rủi ro cao' bao gồm mục đích dự kiến, số lượng người có khả năng bị ảnh hưởng và mức độ tổn hại không thể đảo ngược.
Các quy tắc yêu cầu sự chấp thuận của Nghị viện Châu Âu và các quốc gia thành viên trước khi trở thành luật - một quá trình có thể mất vài năm.