Google cũng bắt đầu hành động và yêu cầu “đưa ra các quy tắc sử dụng AI”
Google đã bắt đầu tìm cách “đưa ra các quy tắc sử dụng AI”. Trong một báo cáo công ty được công bố gần đây, ông đã kêu gọi các nhà hoạch định chính sách tạo ra các quy tắc về việc sử dụng AI. Ý định thực sự của Google, công ty đang tích cực sử dụng AI, để thể hiện một động thái như vậy là gì?
1.Thảo luận tích cực về phát triển pháp lý qua AI
Chính phủ và Quốc hội Hoa Kỳ đang tích cực thảo luận về luật về AI. Tại San Francisco, một dự luật đã được đệ trình lên hội đồng thành phố vào cuối tháng Giêng nhằm cấm các cơ quan công quyền sử dụng công nghệ nhận dạng khuôn mặt. Tổng thống Pháp Emmanuel Macron năm ngoái cũng cho biết ông sẽ đưa ra các hạn chế đối với một số công nghệ.
Carina Chu, người tham gia phát triển các chính sách toàn cầu về công nghệ tiên tiến tại Google, giải thích rằng một trong những mục đích của báo cáo này là đưa ra lời khuyên về những vấn đề mà Google cần kiến thức nhất. “Các quan chức chính phủ thường hỏi chúng tôi rằng chúng tôi nên làm gì”, Chu, đồng tác giả của báo cáo, cho biết.
Google tin rằng không phải lúc nào cũng cần thiết phải bắt đầu tạo ra các quy tắc mới liên quan đến việc sử dụng AI cho câu hỏi này. Chu nói:
“Tại thời điểm này, không phải lúc nào cũng rõ ràng những gì nên được quy định. Mục đích của báo cáo này là làm rõ chi tiết cụ thể của các vấn đề liên quan đến AI. Chúng ta có phải trả lời các câu hỏi không? Xã hội phải đưa ra quyết định nào? Chúng ta cần hãy suy nghĩ kỹ về những điều này. “
2.AI khuếch đại sự phân biệt đối xử xã hội
Báo cáo nói rằng ý kiến từ các nhóm công dân và các chuyên gia bên ngoài cũng sẽ rất quan trọng nếu xã hội đưa ra quyết định.
Mặt khác, có những lĩnh vực mà Google đang yêu cầu chính phủ xây dựng các quy định và hướng dẫn. Một trong số đó là chứng nhận an toàn của các sản phẩm được nhúng AI, chẳng hạn như dấu CE [Lưu ý: Dấu chỉ ra rằng các tiêu chuẩn an toàn của các quốc gia thành viên Liên minh Châu Âu được đáp ứng]. Trong báo cáo, ổ khóa thông minh sử dụng chức năng xác thực sinh trắc học như dấu vân tay được đề cập đến như một ví dụ về các sản phẩm yêu cầu các tiêu chuẩn an toàn như vậy.
Nếu có dấu hợp quy, AI được tích hợp trong sản phẩm phải đáp ứng các tiêu chí như hoạt động chính xác trên một mẫu cụ thể. Các nghiên cứu trước đây đã chỉ ra rằng hệ thống AI được khuếch đại để phản ánh sự phân biệt đối xử trong xã hội.
Cụ thể, thuật toán nhận dạng khuôn mặt không hoạt động tốt đối với những người không phải da trắng. Một thử nghiệm do Liên minh Quyền tự do Dân sự Mỹ (ACLU) tiến hành năm ngoái đã xác nhận rằng hệ thống nhận dạng khuôn mặt do Amazon phát triển và được chính quyền cảnh sát ở nhiều bang áp dụng có tỷ lệ câu trả lời đúng cho người da đen thấp hơn.
3.Vấn đề về AI có thể được sử dụng cho các mục đích chung
Về AI, không chỉ các chuyên gia và học giả mà cả các công ty công nghệ cũng đang kêu gọi sự cần thiết của các quy định. Amazon rất “quan tâm” đến việc hợp tác với chính phủ để phát triển các hướng dẫn và luật cho các hệ thống nhận dạng khuôn mặt. Microsoft tiến một bước xa hơn và chỉ ra rằng bất cứ nơi nào sử dụng công nghệ nhận dạng khuôn mặt, cần phải có “thông báo rõ ràng”.
Tuy nhiên, báo cáo của Google có cái nhìn toàn cảnh về công nghệ AI nói chung, thay vì các trường hợp riêng lẻ và thận trọng trong việc đưa ra các quy định. Thay vào đó, các công ty công nghệ nên tự điều chỉnh.
Trong một báo cáo, Google giải thích rằng, không giống như Amazon và Microsoft, họ không cung cấp các hệ thống nhận dạng khuôn mặt được thiết kế cho mục đích chung thay vì mục đích sử dụng cụ thể. Điều này là do có thể “thực hiện giám sát mạnh mẽ” bằng cách sử dụng một hệ thống có mục đích chung. Nó cũng nhấn mạnh rằng các chương trình AI nghiên cứu được công bố cho đến nay hạn chế một số chức năng để giảm nguy cơ bị lạm dụng.
Mặt khác, báo cáo chỉ ra rằng cần cung cấp hướng dẫn về thời điểm cần tiết lộ thông tin liên quan đến quá trình AI đưa ra các quyết định nhất định. Ví dụ, nếu chẩn đoán của AI cho thấy sự tái phát của bệnh ung thư, chính phủ và các nhóm công dân đã đề xuất đặt ra các “tiêu chuẩn tối thiểu” có thể chấp nhận được trong các lĩnh vực tương ứng của họ.
4.Đó là một bước đầu tiên có ý nghĩa”
Vai trò của con người trong các hệ thống dựa trên thuật toán cũng được xem xét. Bất cứ khi nào liên quan đến trừng phạt hình sự hoặc chăm sóc y tế đe dọa tính mạng, con người nên “tham gia một cách có ý nghĩa” vào các quyết định của AI. Ông cũng đề xuất với chính phủ rằng nên xem xét các quy định có thể ngăn con người tắt các hệ thống an toàn, chẳng hạn như có thể tắt AI trong trường hợp khẩn cấp.
Phản ứng của các chuyên gia bên ngoài đối với báo cáo này không phải là xấu, nhưng có nhiều tiếng nói kêu gọi các biện pháp ngăn chặn trước tác động của AI đối với xã hội. Sandra Wacter thuộc Viện Nghiên cứu Internet của Đại học Oxford chỉ ra rằng cuộc tranh luận giữa các chính phủ và các công ty công nghệ về đạo đức AI và việc ra quy tắc là thường xuyên và không thực tế. Wakutta nói: “AI cần phải tiến thêm một bước nữa so với lý thuyết trừu tượng rằng AI nên đưa ra các quyết định công bằng.
“Tôi nghĩ rằng đó là một điểm khởi đầu tốt cho các cuộc thảo luận, nhưng tôi nghĩ rằng vẫn còn một khoảng trống trong suy nghĩ về cách thực sự quản lý những điều này”, Wactor nói về báo cáo của Google giải thích. Không giống như Google, cô ấy tin rằng nếu AI đưa ra các quyết định quan trọng, chẳng hạn như trong lĩnh vực y tế, nó cần được quản lý chặt chẽ. “Cần có quy định pháp luật chứ không phải quy tắc ứng xử, vì đây là vấn đề nhân quyền.”
Eleonora Powells, người đứng đầu một dự án quản lý AI tại Trung tâm Nghiên cứu Chính sách của Đại học Liên Hợp Quốc, nói rằng báo cáo là một bước đầu tiên tốt, nhưng Google cần kết nối nó với bước tiếp theo. Ví dụ, cần phải hợp tác chặt chẽ với bên ngoài về tác động xã hội và việc sử dụng công nghệ đang phát triển.