Google vừa phát hành một bộ nguyên tắc để hướng dẫn nhân viên làm việc trong lĩnh vực trí tuệ nhân tạo (AI). Tài liệu vừa được phát hành có tiêu đề “Artificial Intelligence at Google: our principles” (tạm dịch: Trí thông minh nhân tạo tại Google: nguyên tắc của chúng tôi”). Tài liệu không trực tiếp đề cập đến dự án máy bay không người lái của quân đội Hoa Kỳ nhưng khẳng định công ty sẽ không phát triển AI để sử dụng phát triển vũ khí. Dù cấm sử dụng AI để phát triển vũ khí nhưng Google khẳng định họ vẫn tiếp tục làm việc với quân đội “ở nhiều lĩnh vực khác” hay các dự án “an toàn” trong tương lai.
Bộ nguyên tắc cũng khẳng định Google sẽ không làm việc với các dự án giám sát AI vi phạm “các tiêu chuẩn được quốc tế chấp nhận” hoặc các dự án trái với “các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền”. Trọng tâm nghiên cứu AI của Google là “mang lại lợi ích cho xã hội”.
Giám đốc điều hành Google Sundar Pichai cho biết: “Tại Google, chúng tôi sử dụng AI để làm cho sản phẩm hữu ích hơn. Chúng tôi nhận ra rằng công nghệ tiên tiến như vậy đặt ra những câu hỏi mạnh mẽ về cách thức sử dụng chúng. Làm thế nào để AI phát triển và sử dụng sẽ có tác động đáng kể đến xã hội trong nhiều năm tới”. Google đã phải đối mặt với sự giám sát về việc sử dụng AI sau khi sự hợp tác của họ với Bộ quốc phòng Mỹ được tiết lộ hồi đầu năm.
Tháng trước, liên minh các nhóm nhân quyền và công nghệ đã cùng nhau đưa ra một văn bản có tựa đề Tuyên bố Toronto kêu gọi các chính phủ và các công ty công nghệ đảm bảo AI tôn trọng các nguyên tắc cơ bản về bình đẳng và không phân biệt đối xử.