Trí tuệ nhân tạo đang có vấn đề về phân biệt chủng tộc.
Từ các hệ thống nhận dạng sinh trắc học xác định sai khuôn mặt của người da đen và các nhóm thiểu số một cách không tương xứng, đến các ứng dụng của phần mềm nhận dạng giọng nói không phân biệt được giọng nói với các giọng vùng miền khác biệt, AI còn rất nhiều việc phải làm khi phân biệt đối xử.
Và vấn đề khuếch đại những thành kiến hiện có có thể còn nghiêm trọng hơn khi nói đến các dịch vụ tài chính và ngân hàng.
Deloitte lưu ý rằng các hệ thống AI cuối cùng chỉ tốt như dữ liệu mà chúng được cung cấp: Các bộ dữ liệu không đầy đủ hoặc không mang tính đại diện có thể hạn chế tính khách quan của AI, trong khi các thành kiến trong các nhóm phát triển đào tạo các hệ thống như vậy có thể kéo dài chu kỳ thành kiến đó.
Nabil Manji, người đứng đầu bộ phận tiền điện tử và Web3 tại Worldpay của FIS, cho biết điều quan trọng cần hiểu về các sản phẩm AI là sức mạnh của công nghệ phụ thuộc rất nhiều vào tài liệu nguồn được sử dụng để đào tạo nó.
Manji cho biết trong một cuộc phỏng vấn: “Việc một sản phẩm AI tốt đến mức nào, có hai biến số. “Thứ nhất là dữ liệu mà nó có quyền truy cập và thứ hai là mô hình ngôn ngữ lớn tốt như thế nào. Đó là lý do tại sao về mặt dữ liệu, bạn thấy các công ty như Reddit và những công ty khác, họ đã công khai và nói rằng chúng tôi sẽ không cho phép các công ty thu thập dữ liệu của chúng tôi, bạn sẽ phải trả tiền cho chúng tôi vì điều đó.”
Đối với các dịch vụ tài chính, Manji cho biết rất nhiều hệ thống dữ liệu phụ trợ bị phân mảnh theo các ngôn ngữ và định dạng khác nhau.
Ông nói thêm: “Không có gì trong số đó được hợp nhất hoặc hài hòa. “Điều đó sẽ khiến các sản phẩm do AI điều khiển trở nên kém hiệu quả hơn rất nhiều trong các dịch vụ tài chính so với các ngành dọc khác hoặc các công ty khác, nơi họ có hệ thống hoặc quyền truy cập dữ liệu đồng nhất và hiện đại hơn.”
Manji gợi ý rằng blockchain, hoặc công nghệ sổ cái phân tán, có thể đóng vai trò như một cách để có cái nhìn rõ ràng hơn về dữ liệu khác nhau được giấu kín trong hệ thống lộn xộn của các ngân hàng truyền thống.
Tuy nhiên, ông nói thêm rằng các ngân hàng – vốn là những tổ chức hoạt động chậm chạp, được quản lý chặt chẽ – không có khả năng di chuyển với tốc độ tương tự như các đối tác công nghệ nhanh nhẹn hơn của họ trong việc áp dụng các công cụ AI mới.
“Bạn đã có Microsoft và Google, những người như trong một hoặc hai thập kỷ qua đã được coi là thúc đẩy sự đổi mới. Họ không thể theo kịp tốc độ đó. Và sau đó bạn nghĩ về các dịch vụ tài chính. Các ngân hàng không được biết đến là nhanh chóng,” Manji nói.
Vấn đề A.I.
Rumman Chowdhury, cựu giám đốc đạo đức học máy, tính minh bạch và trách nhiệm giải trình của Twitter, nói rằng việc cho vay là một ví dụ điển hình về cách một hệ thống AI có thể chống lại sự thiên vị của các cộng đồng bị thiệt thòi.
“Sự phân biệt đối xử theo thuật toán thực sự rất hữu hình trong việc cho vay,” Chowdhury cho biết trên một hội thảo tại Money20/20 ở Amsterdam. “Chicago từng có lịch sử từ chối [các khoản vay] đó theo đúng nghĩa đen đối với các khu dân cư chủ yếu là người Da đen.”
Vào những năm 1930, Chicago được biết đến với thực tiễn phân biệt đối xử “redlining”, trong đó khả năng trả nợ của các tài sản được quyết định chủ yếu bởi nhân khẩu học chủng tộc của một khu vực lân cận nhất định.
“Sẽ có một tấm bản đồ khổng lồ trên tường của tất cả các quận ở Chicago, và họ sẽ vẽ các đường màu đỏ qua tất cả các quận chủ yếu là người Mỹ gốc Phi và không cho họ vay,” cô nói thêm.
“Quay nhanh vài thập kỷ sau, và bạn đang phát triển các thuật toán để xác định mức độ rủi ro của các khu vực và cá nhân khác nhau. Và mặc dù bạn có thể không bao gồm điểm dữ liệu về chủng tộc của ai đó, nhưng nó vẫn được chọn một cách ngầm định.”
Thật vậy, Angle Bush, người sáng lập Phụ nữ Da đen trong Trí tuệ Nhân tạo, một tổ chức nhằm trao quyền cho phụ nữ Da đen trong lĩnh vực AI, nói rằng khi các hệ thống AI được sử dụng cụ thể cho các quyết định phê duyệt khoản vay, cô ấy nhận thấy rằng có nguy cơ sao chép các hệ thống hiện có. những sai lệch hiện diện trong dữ liệu lịch sử được sử dụng để đào tạo các thuật toán.
Bush nói thêm: “Điều này có thể dẫn đến việc các cá nhân từ các cộng đồng bị thiệt thòi tự động bị từ chối cho vay, củng cố sự chênh lệch về chủng tộc hoặc giới tính. Bà nói: “Điều quan trọng là các ngân hàng phải thừa nhận rằng việc triển khai AI như một giải pháp có thể vô tình kéo dài sự phân biệt đối xử.
Frost Li, một nhà phát triển đã làm việc trong lĩnh vực AI và máy học trong hơn một thập kỷ, nói rằng khía cạnh “cá nhân hóa” của tích hợp AI cũng có thể gặp vấn đề. Li, người sáng lập và điều hành Loup, một công ty giúp các nhà bán lẻ trực tuyến tích hợp AI vào nền tảng của họ, cho biết: “Điều thú vị trong AI là cách chúng tôi chọn 'các tính năng cốt lõi' để đào tạo. “Đôi khi, chúng tôi chọn các tính năng không liên quan đến kết quả mà chúng tôi muốn dự đoán.”
Li nói, khi AI được áp dụng vào ngân hàng, sẽ khó xác định “thủ phạm” trong các sai lệch khi mọi thứ đều phức tạp trong phép tính. “Một ví dụ điển hình là có bao nhiêu công ty khởi nghiệp fintech đặc biệt dành cho người nước ngoài, bởi vì một sinh viên tốt nghiệp Đại học Tokyo sẽ không thể nhận được bất kỳ thẻ tín dụng nào ngay cả khi anh ta làm việc tại Google; nhưng một người có thể dễ dàng nhận được một suất từ hiệp hội tín dụng đại học cộng đồng vì các chủ ngân hàng biết rõ hơn về các trường địa phương,” Li nói thêm.
AI sáng tạo thường không được sử dụng để tạo điểm tín dụng hoặc chấm điểm rủi ro của người tiêu dùng.
Niklas Guske, giám đốc điều hành của Taktile, một công ty khởi nghiệp giúp fintech tự động hóa việc ra quyết định, cho biết: “Đó không phải là mục đích mà công cụ này được tạo ra. Thay vào đó, Guske cho biết các ứng dụng mạnh mẽ nhất đang xử lý trước dữ liệu phi cấu trúc như tệp văn bản - như phân loại giao dịch.
Guske cho biết: “Những tín hiệu đó sau đó có thể được đưa vào một mô hình bảo lãnh phát hành truyền thống hơn. “Do đó, AI sáng tạo sẽ cải thiện chất lượng dữ liệu cơ bản cho các quyết định như vậy thay vì thay thế các quy trình tính điểm thông thường". Nhưng nó cũng khó chứng minh. Apple và Goldman Sachs, chẳng hạn, bị buộc tội đưa ra giới hạn thấp hơn cho phụ nữ đối với Thẻ Apple. Nhưng những tuyên bố này đã bị Bộ Dịch vụ Tài chính New York bác bỏ sau khi cơ quan quản lý không tìm thấy bằng chứng phân biệt đối xử dựa trên giới tính.
Theo Kim Smouter, giám đốc của nhóm chống phân biệt chủng tộc Mạng lưới châu Âu chống phân biệt chủng tộc, vấn đề là việc chứng minh liệu sự phân biệt đối xử dựa trên AI có thực sự diễn ra hay không là một thách thức. Anh ấy nói: “Một trong những khó khăn trong việc triển khai AI hàng loạt là sự không rõ ràng trong cách thức đưa ra các quyết định này và cơ chế khắc phục tồn tại là một cá nhân bị phân biệt chủng tộc thậm chí có thể nhận thấy rằng có sự phân biệt đối xử.”
“Các cá nhân có rất ít kiến thức về cách thức hoạt động của các hệ thống AI và trên thực tế, trường hợp cá nhân của họ có thể chỉ là phần nổi của tảng băng chìm trên toàn hệ thống. Theo đó, cũng rất khó để phát hiện các trường hợp cụ thể mà mọi thứ đã đi sai hướng,” ông nói thêm.
Smouter trích dẫn ví dụ về vụ bê bối phúc lợi trẻ em ở Hà Lan, trong đó hàng nghìn yêu cầu trợ cấp đã bị buộc tội sai là lừa đảo. Chính phủ Hà Lan buộc phải từ chức sau khi một báo cáo năm 2020 cho thấy các nạn nhân “bị đối xử thiên vị về thể chế”.
Smouter cho biết, điều này “cho thấy những rối loạn chức năng như vậy có thể lây lan nhanh như thế nào và khó khăn như thế nào để chứng minh chúng cũng như khắc phục một khi chúng được phát hiện và trong khi đó, thiệt hại đáng kể, thường là không thể khắc phục được.”
Chính sách thiên vị của A.I.
Chowdhury nói rằng cần có một cơ quan quản lý toàn cầu, như Liên Hợp Quốc, để giải quyết một số rủi ro xung quanh AI.
Mặc dù AI đã được chứng minh là một công cụ sáng tạo, nhưng một số nhà công nghệ và nhà đạo đức học đã bày tỏ sự nghi ngờ về tính đúng đắn về đạo đức và luân lý của công nghệ này. Trong số những lo lắng hàng đầu mà những người trong ngành bày tỏ là thông tin sai lệch; thành kiến về chủng tộc và giới tính được nhúng trong các thuật toán AI; và "ảo giác" được tạo bởi các công cụ giống như ChatGPT.
“Tôi khá lo lắng rằng, nhờ trí tuệ nhân tạo AI, chúng ta đang bước vào thế giới hậu sự thật này, nơi không có gì chúng ta thấy trên mạng là đáng tin cậy — không phải bất kỳ văn bản nào, không phải bất kỳ video nào, không phải bất kỳ âm thanh nào, nhưng rồi sẽ thế nào? chúng tôi có nhận được thông tin của chúng tôi? Và làm cách nào để chúng tôi đảm bảo rằng thông tin có tính toàn vẹn cao?” Chowdhury nói.
Bây giờ là lúc để các quy định có ý nghĩa về AI có hiệu lực — nhưng khi biết khoảng thời gian cần thiết để các đề xuất quy định như Đạo luật AI của Liên minh Châu Âu có hiệu lực, một số người lo ngại rằng điều này sẽ không diễn ra đủ nhanh.
“Chúng tôi kêu gọi sự minh bạch và trách nhiệm giải trình hơn đối với các thuật toán cũng như cách thức hoạt động của chúng và tuyên bố của một giáo dân cho phép các cá nhân không phải là chuyên gia AI tự đánh giá, bằng chứng kiểm tra và công bố kết quả, quy trình khiếu nại độc lập, kiểm tra và báo cáo định kỳ, sự tham gia của cộng đồng phân biệt chủng tộc khi công nghệ đang được thiết kế và xem xét để triển khai,” Smouter nói.
Theo Smouter, Đạo luật AI, khung pháp lý đầu tiên thuộc loại này, đã kết hợp cách tiếp cận các quyền cơ bản và các khái niệm như bồi thường, đồng thời cho biết thêm rằng quy định này sẽ được thi hành trong khoảng hai năm. Ông nói: “Sẽ thật tuyệt nếu khoảng thời gian này có thể được rút ngắn để đảm bảo tính minh bạch và trách nhiệm giải trình là cốt lõi của sự đổi mới”.