IBM phát triển công cụ ngăn trí tuệ nhân tạo quyết định thiên vị

Theo dõi Báo Gia Lai trên Google News

IBM vừa giới thiệu một công cụ giúp kiểm soát và giảm sự thiên vị của trí tuệ nhân tạo (AI) trong phân biệt đối xử.



Với đặc trưng là do con người tạo ra và tự đào tạo dưới dạng máy học (machine learning), trí tuệ nhân tạo có những hạn chế nhất định với nguyên nhân thiên vị bởi chính con người. Điều này có thể gây ra sự thiên vị hay phân biệt đối xử với một nhóm đối tượng nào đó, ví dụ như phụ nữ hoặc người dân tộc thiểu số.

Chỉ cách đâu một tuần, Amazon đã phải ngừng một trong những công cụ AI của mình liên quan đến việc tuyển dụng. Công cụ này đã có những thiên vị nhất định khi sẽ ưu tiên tuyển dụng nhân viên là nam hơn là nữ vào công ty.

Hay xa hơn đối với công nghệ nhận diện khuôn mặt của Microsoft và IBM trước đây, trí tuệ nhân tạo có thể xác định chính xác hơn khuôn mặt của những người đàn ông, và là người da trắng hơn là phụ nữ, người da màu.

Mọi chuyện bắt đầu khi nhà nghiên cứu Joy Buolamwini của Media Lab tại MIT xây dựng bộ dữ liệu 1270 khuôn mặt, sử dụng khuôn mặt từ các chính trị gia, được lựa chọn dựa trên bảng xếp hạng về bình đẳng giới, hay nói cách khác là có số lượng phụ nữ làm việc trong công sở đáng kể. Sau đó, Joy đã kiểm tra tính chính xác của ba hệ thống nhận dạng khuôn mặt lần lượt do Microsoft, IBM tạo ra. Kết quả cho thấy có sự sai sót khác nhau về nhận dạng giới tính tùy thuộc vào màu da của một người.

Nhận dạng giới tính sai chỉ chưa tới 1% với những người đàn ông da trắng và lên đến 7% với phụ nữ da trắng. Thế nhưng, sai số lên đến 12% ở đàn ông da màu và đến 35% ở phụ nữ da màu. Kết quả này cho thấy, các đối tượng nam được phân loại chính xác hơn các đối tượng nữ và những đối tượng có da trắng cũng được phân loại chính xác hơn các đối tượng da màu.

Joy Buolamwini gần đây đã nói với Aaron Pressman của trang Fortune rằng sự thiếu đa dạng trong các nhóm phát triển, dữ liệu đầu vào cũng có thể góp phần vào sự thiên vị dựa trên các thuật toán.

IBM muốn giúp các công ty giảm thiểu các “lỗi” mà các công nghệ trí tuệ nhân tạo của họ không chủ ý phân biệt đối xử với các nhóm nhất định như phụ nữ và dân tộc thiểu số. Ngoài IBM, một số công ty cũng bắt đầu phát triển các công cụ để kiểm tra công nghệ AI như Google và Microsoft.

Hãng này cho biết công cụ được xây dựng trên dựa trên dịch vụ “điện toán đám mây” của công ty và nó được tạo ra cho những người kinh doanh, dễ dàng làm việc hơn các công cụ tương tự khác chỉ dành cho các nhà phát triển.

Tuy nhiên, mặc dù bắt đầu có những công cụ giúp kiểm tra AI, vấn đề thiên vị có thể sẽ tiếp tục tồn tại bởi vì “gốc rễ” sự việc thực tế lại nằm ở phần lõi của công nghệ AI, và do con người.

An Nhiên (theo Fortune/Vietnamnet)

Có thể bạn quan tâm

Phối hợp quản lý và sử dụng các nhãn hiệu chứng nhận, chỉ dẫn địa lý mang địa danh “Gia Lai”

Phối hợp quản lý và sử dụng các nhãn hiệu chứng nhận, chỉ dẫn địa lý mang địa danh “Gia Lai”

(GLO)- Để việc quản lý các nhãn hiệu chứng nhận, chỉ dẫn địa lý mang địa danh “Gia Lai” đạt hiệu quả, Sở Khoa học và Công nghệ (KH-CN) yêu cầu các đơn vị liên quan phối hợp quản lý và phát triển các nhãn hiệu theo quy định của Luật Sở hữu trí tuệ.