Xu hướng: gót chân Achille của AI

Đăng bởi: Admin | Lượt xem: 431 | Chuyên mục: Chia Sẻ

Xu hướng: gót chân Achille của AI


Xu hướng có thể dẫn đến kết quả AI không mong muốn. Một khảo sát gần đây của DataRobot cho biết các tổ chức quan tâm nhất đến tác động của nó đối với niềm tin và danh tiếng của họ.

Các nhà lãnh đạo doanh nghiệp và CNTT đang nhận ra rằng trí tuệ nhân tạo nên được thực hiện cẩn thận để tránh kết quả không mong muốn. Trong cuộc đua triển khai AI trong nhiều năm qua, hầu hết các tổ chức đã không giải quyết vấn đề quản lý rủi ro một cách thỏa đáng, và trong một số trường hợp, việc giám sát đã dẫn đến tin tức tiêu đề mà công ty có thể tránh được nếu họ thực hiện cẩn thận hơn.

Mọi người đang chú ý đến những tiêu đề đó. AI đã chuyển từ giai đoạn cường điệu ban đầu, trong đó những người đề xướng có xu hướng chỉ tập trung vào các khía cạnh tích cực, đến cái mà Gartner gọi là "máng vỡ" hay Geoffrey Moore gọi là "lỗ hổng" trong đó những nhược điểm của công nghệ trở nên quá rõ ràng bỏ qua và khiến các tổ chức tiến hành thận trọng hơn.

Xu hướng là gót chân Achille của AI, và đó là con khỉ đột nặng 400kg trong phòng đang chờ được công nhận bởi những người khác ngoài các nhà khoa học dữ liệu.

Nhà cung cấp nền tảng Machine Learning DataRobot gần đây đã xuất bản một báo cáo về chủ đề này, có tên. "Trạng thái của AI Bias năm 2019." Báo cáo cho thấy 42% trong số 350 người được hỏi được khảo sát là "rất" cho đến "cực kỳ" quan tâm đến xu hướng AI. Thật thú vị, khoảng hai lần con số đó (83%) cho biết các công ty của họ đã thiết lập các hướng dẫn về AI và đang thực hiện các bước để tránh sai lệch. 85% tin rằng quy định AI sẽ giúp và 93% có kế hoạch đầu tư nhiều hơn vào các sáng kiến phòng ngừa thiên vị AI trong 12 tháng tới. Hai mối quan tâm lớn nhất của họ về sự thiên vị là tổn hại danh tiếng thương hiệu và mất niềm tin của khách hàng.

Cần lưu ý rằng "tránh" và "ngăn chặn" sai lệch như đã nêu trong báo cáo ít thực tế hơn nhiều so với giảm thiểu nó, với nhiều loại sai lệch, bối cảnh khác nhau trong đó AI được áp dụng và nhiều cách thiên vị có thể thấm vào và tổng hợp trên các hệ thống AI. Ngoài ra, những người tham gia khảo sát bị giới hạn ở Mỹ.

"Xu hướng không có gì mới. Con người luôn hướng tới mọi lúc. Sự khác biệt với AI là nó xảy ra ở quy mô lớn hơn và nó có thể đo lường được", Colin Priest, Phó Chủ tịch Chiến lược AI tại DataRobot nói. "Một điều nữa là xu hướng không phải là một điều tuyệt đối. Nó phụ thuộc vào trường hợp sử dụng và vào các giá trị của những người áp dụng nó."

Colin Priest, DataRobot

Ví dụ:  Trong khi các nền văn hóa phương Tây có xu hướng coi trọng cơ hội bình đẳng, có những lý do hợp lý tại sao các công ty bảo hiểm tính phí cho nam thanh niên nhiều hơn cho bảo hiểm xe hơi và người già nhiều hơn cho bảo hiểm nhân thọ.

Tuy nhiên, những kẻ lừa đảo như thuật toán tuyển dụng của Amazon và giới hạn tín dụng của Apple Card, cả hai đều phân biệt đối xử với phụ nữ, có suy nghĩ chung về sự thiên vị của AI và tác động của nó đối với sự công bằng.

"Thực sự không thể loại bỏ tất cả các loại sai lệch về mặt toán học, cho dù đó là từ AI hay con người bởi vì hơn 20 loại không thể đạt được về mặt toán học đồng thời," Priest nói.

Công bằng là chìa khóa

Công bằng là mục tiêu khi giảm thiểu sai lệch, nhưng định nghĩa của "công bằng" thay đổi tùy theo ngữ cảnh.

Các tổ chức cần xem xét những người họ cần bảo vệ, mức độ tiết lộ mà họ sẵn sàng cung cấp cho các bên liên quan về việc sử dụng AI, làm thế nào AI có thể ảnh hưởng đến các bên liên quan và liệu các bên liên quan có thể đặt câu hỏi về kết quả của AI hay không. Quản trị cũng rất quan trọng để đảm bảo rằng AI đang hành xử nhất quán với các giá trị của tổ chức.

"Cho dù bạn xây dựng hệ thống nào, nó sẽ bị sai lệch theo một cách nào đó, vậy làm thế nào chúng ta có thể xây dựng các hệ thống này theo cách dẫn đến một kết quả công bằng làm giảm lượng sai lệch phản ánh?" Kirsten Lloyd nói - cộng sự tại Booz Allen Hamilton.

Kirsten Lloyd, Booz Allen Hamilton

Các nguyên tắc phải phù hợp với các giá trị của tổ chức, điều này đặt ra câu hỏi làm rõ chúng. Câu trả lời không phải là một người hay C-suite riêng lẻ, mà là một nhóm đa dạng đại diện cho các quan điểm và chuyên môn khác nhau, chẳng hạn như các nhà khoa học dữ liệu, chuyên gia về lĩnh vực kinh doanh, nhà thiết kế hệ thống, nhà đạo đức học và những người khác mang đến cho họ những điểm có giá trị đặc biệt xem rằng những người khác có thể không xem xét.

"Xu hướng sẽ là vấn đề dễ dàng hơn rất nhiều để giải quyết nếu bạn nghĩ về nó ngay từ đầu thay vì suy nghĩ lại," Lloyd của Booz Allen Hamilton nói.

Cụ thể, ba cân nhắc quan trọng là: Tổ chức có giá trị gì? Dự án hoặc sáng kiến ​​có phù hợp với các mục tiêu và giá trị kinh doanh được khớp nối không? "Công bằng" nghĩa là gì trong bối cảnh cụ thể mà AI sẽ được sử dụng?

Priest cũng đề nghị quản lý AI như mọi người, có một bản mô tả công việc giải thích mục tiêu và những gì họ nên làm. AI cũng nên có KPI được chỉ định để chúng có thể được quản lý đúng cách.

Theo dõi xu hướng trong dữ liệu của bên thứ ba

Các tổ chức đang bổ sung dữ liệu của riêng họ bằng dữ liệu của bên thứ ba và giống như với dữ liệu của chính họ, họ cần xem xét xu hướng.

Các tổ chức sẽ chịu trách nhiệm về những gì AI của họ làm, giống như họ chịu trách nhiệm về những gì nhân viên của họ làm. Do đó, quản trị phải mở rộng dữ liệu của bên thứ ba và nó sẽ phản ánh những gì đã nổi lên như các nguyên tắc AI phổ biến giữa các chính phủ, cơ quan tiêu chuẩn và các tổ chức khác bao gồm tính minh bạch và trách nhiệm (ai chịu trách nhiệm khi có sự cố).

Quy định: đúng hay sai?

Tất cả những người tham gia khảo sát DataRobot đều làm việc cho các doanh nghiệp, điều này giải thích mức độ quan tâm cao (85%) trong quy định. Các nhà cung cấp được phân chia về vấn đề này. Một số sợ rằng quy định sẽ tác động tiêu cực đến sự đổi mới.

"Tôi đã rất ngạc nhiên bởi tỷ lệ phần trăm và sau đó tôi nhận ra rằng nó phải làm với ngành dọc. Nó thiên về ngành tài chính. Ngành dịch vụ tài chính được kiểm soát chặt chẽ nên họ đã quen với loại công cụ này. [Tuy nhiên,] Kinh nghiệm của tôi cho rằng ngành dọc tập trung quá nhiều vào việc tuân thủ quy định và không tập trung vào điều gì đúng và điều gì sai, vì vậy họ chỉ bảo vệ các thuộc tính được bảo vệ bởi các thuộc tính theo luật, "Priest nói.

Priest gần đây đã làm việc với chính phủ Singapore, nơi đang tạo ra một danh sách kiểm tra quản trị tùy chọn cho các tổ chức tạo, triển khai và quản lý AI. Phản hồi về nó đã bị xáo trộn vì một số người cho rằng nó quá quy định và những người khác cho rằng nó không đủ quy định.

Nếu hướng dẫn không đủ quy định, mọi người sẽ không biết cách áp dụng chúng. Nếu họ quá quy định, họ có thể đi qua như một nhiệm vụ. Một vấn đề khác mà các chính phủ đấu tranh là thực tế là các quan chức chính phủ không phải là chuyên gia về AI. Mặc dù họ đang tích cực khai thác các chuyên gia AI để được giúp đỡ, vẫn còn một khoảng cách cần phải được thu hẹp.

"Cuối cùng, khi các tổ chức phát triển về mặt tự điều chỉnh, sẽ có nhiều sự đồng thuận xung quanh những gì cần thiết. Tôi nghĩ rằng còn quá sớm cho một chính sách [chính phủ] toàn diện bởi vì vẫn còn rất nhiều điều cần phải làm được tìm ra," Lloyd của Booz Allen Hamilton nói.

Kết luận

Xu hướng là một vấn đề quan trọng mà doanh nghiệp cần giải quyết sớm hơn là muộn hơn nếu họ muốn sử dụng AI có trách nhiệm. Mặc dù các tổ chức có xu hướng nhận thức rõ về lợi ích tiềm năng mà AI mang lại cho tổ chức của họ, họ đã ít tập trung vào các rủi ro tiềm ẩn. Xu hướng đó đang thay đổi khi nhiều nhà lãnh đạo doanh nghiệp và CNTT nói lên mối quan tâm về xu hướng AI và thực hiện các bước để quản lý các vấn đề một cách chủ động từ quan điểm kinh doanh và kỹ thuật.

Nguồn: https://informationweek.com/big-data/ai-machine-learning/bias-ais-achilles-heel/a/d-id/1336622

vncoder logo

Theo dõi VnCoder trên Facebook, để cập nhật những bài viết, tin tức và khoá học mới nhất!