Trước đó, dự thảo Đạo luật này có ngoại lệ cho việc sử dụng công nghệ quét khuôn mặt ở nơi công cộng trong một số tình huống thực thi pháp luật nhất định như tìm kiếm trẻ em mất tích hoặc ngăn chặn tấn công khủng bố. Đây được coi là “giới hạn đỏ” cho các quốc gia khi đàm phán với Nghị viện và Uỷ ban Châu Âu. Tuy nhiên, điều này không được thông qua tại phiên bỏ phiếu toàn thể.
Mức độ chặt chẽ trong quản lý AI sinh tạo của EU có thể tác động lớn đến lĩnh vực được ước tính trị giá hơn 1,3 ngàn tỷ USD trong 10 năm tới, do việc vi phạm quy định của khối sẽ dẫn đến án phạt lên tới 6% tổng doanh thu hàng năm.
Các nhà lập pháp đã đồng thuận trong việc áp dụng biện pháp bổ sung đối với những nền tảng AI sinh tạo như GPT-4. Theo đó, các công ty như OpenAI và Google sẽ phải tiến hành đánh giá rủi ro và công bố những tài liệu có bản quyền nào đã được sử dụng để huấn luyện mô hình AI.
EU tiếp cận và xây dựng luật theo cách đánh giá rủi ro. Liên minh này tập trung vào điều chỉnh việc sử dụng AI thay vì bản thân công nghệ này, đồng thời cấm hoàn toàn một số ứng dụng như chấm điểm xã hội và đặt ra các tiêu chuẩn đối với việc sử dụng công nghệ trong những tình huống rủi ro cao.
Hôm 14/6, Nghị viện châu Âu đã bỏ phiếu thông qua dự thảo Đạo luật AI, đánh dấu lần đầu tiên một đạo luật quản lý AI toàn diện được thúc đẩy trên thế giới. Động thái bỏ phiếu này chỉ là một bước trong một quy trình dài trước khi đạo luật có hiệu lực. Các đại diện của Nghị viện châu Âu, Ủy ban châu Âu và Hội đồng châu Âu sẽ đàm phán nội dung phiên bản cuối cùng của Đạo luật AI. Họ hy vọng sẽ hoàn tất đàm phán vào cuối năm nay,
Đạo luật AI của EU phân loại các hệ thống AI theo 4 cấp độ rủi ro, từ mức tối thiểu đến mức không thể chấp nhận được. Danh sách hệ thống AI có rủi ro cao mà EU xác định bao gồm hệ thống AI sử dụng trong các cơ sở hạ tầng quan trọng, giáo dục, nguồn nhân lực, trật tự công cộng và quản lý nhập cư. Mức độ rủi ro của hệ thống AI đối với các quyền và sức khỏe của con người cao thì các quy định quản lý càng siết chặt hơn.