Làm 'rào chắn' để AI an toàn hơn

ED HUSIC AI PRESSER

Minister for Industry Ed Husic at a press conference on AI at Parliament House in Canberra (AAP/Mick Tsikas) Source: AAP / MICK TSIKAS/AAPIMAGE

Get the SBS Audio app

Other ways to listen

Trí tuệ nhân tạo được coi là một trong những thách thức chính sách phức tạp nhất đối với các chính phủ trên toàn thế giới. Chính phủ liên bang đã công bố một bộ hướng dẫn cho các doanh nghiệp sử dụng AI có thể tự nguyện áp dụng trong thời gian chính phủ soạn thảo và ban hành một bộ luật bắt buộc.


Chỉ mới xuất hiện trong hai năm trở lại đây nhưng trí tuệ nhân tạo đã có mặt ở khắp mọi nơi.

Với mô hình ngôn ngữ lớn Chat GPT, bạn có thể có một bài luận khá hay về sự gia tăng mức độ phổ biến của polyester trong thế kỷ 20 được viết miễn phí, trong vài giây. Và điều này buộc các chính phủ phải gấp rút có các biện pháp quản lý hữu hiệu trước khi mọi thứ bị xáo trộn.

"Chúng tôi đã nghe rõ ràng thông điệp từ công chúng Úc rằng mặc dù AI có những lợi ích to lớn, nhưng công chúng muốn được bảo vệ nếu mọi thứ đi chệch hướng."

Đó là Bộ trưởng Khoa học và Công nghiệp Ed Husic và ông cho biết rất khó để quản lý.

"Đây có lẽ là một trong những thách thức chính sách phức tạp nhất mà chính phủ trên toàn thế giới phải đối mặt và Chính phủ Úc quyết tâm đưa ra các biện pháp nhằm bảo đảm trí tuệ nhân tạo được sử dụng một cách an toàn và có trách nhiệm tại quốc gia này."

Trước mắt, chính phủ đã ban hành một bộ quy tắc tự nguyện để giúp hướng dẫn các doanh nghiệp sử dụng AI có thể áp dụng trước khi cính phủ ban hành bộ quy tắc bắt buộc.

Trong số các doanh nghiệp đang sử dụng công nghệ này thì có khoảng 80% tin rằng họ đang làm đúng, tuy nhiên có chưa đến một phần ba trong số đó thực sự tuân thủ thông lệ tốt nhất, theo chỉ số AI có trách nhiệm của chính phủ.

Hiện tại, bộ quy tắc này đã có sẵn và Bộ trưởng Husic cho biết bộ quy tắc này sẽ giúp các doanh nghiệp đạt được các tiêu chuẩn của riêng mình.

"Điều mà Chính phủ Úc muốn làm là tạo ra cầu nối giữa ý định tốt và thực hành tốt. Bộ luật tự nguyện đưa ra những cách thiết thực để các doanh nghiệp đạt được mục tiêu của mình, đó là sử dụng AI một cách an toàn và có trách nhiệm."

Nicole Gillespie là Giáo sư Quản lý tại Đại học Queensland và Chủ tịch của Organizational Trust, người đã nghiên cứu thái độ đối với AI ở Úc trong nhiều năm cho biết các quy định trong bộ quy tắc hướng dẫn mà chính phủ giới thiệu là những gì công chúng mong muốn.

"Họ thực sự làm tốt việc đáp ứng nhu cầu của công chúng về các quy định. Cuộc khảo sát năm 2023 của chúng tôi cho thấy 70% người Úc tin rằng các quy định về AI là bắt buộc và họ thực sự muốn AI được quản lý bởi chính phủ và các cơ quan quản lý hiện tại hoặc bởi một cơ quan quản lý AI độc lập, chuyên trách."

Có 10 lĩnh vực, hay tay vịn như cách gọi của chính phủ, được nêu lên trong bộ hướng dẫn tự nguyện này.

Phần đầu tiên xoay quanh các quy trình, bảo đảm các doanh nghiệp có hệ thống quản lý rủi ro và nhân viên được đào tạo về cách sử dụng AI, dữ liệu được bảo vệ và hồ sơ được lưu giữ để kiểm tra tính tuân thủ.

Tổng giám đốc điều hành Phòng Thương mại và Công nghiệp Úc Andrew McKellar cho biết giáo dục là rất quan trọng.

"Nhiều doanh nghiệp đang bắt đầu đối mặt với thách thức này, nhưng chúng ta phải thúc đẩy hiểu biết về AI trong các doanh nghiệp. Chúng ta phải hiểu về những rủi ro và lợi ích đi kèm với các công nghệ mới này, và rõ ràng là chúng ta phải bắt đầu quá trình giáo dục đó."

Nó cũng đặt ra các yêu cầu về giám sát của con người, thiết lập rằng các công ty chịu trách nhiệm về việc sử dụng AI của riêng họ, rằng họ phải thử nghiệm các hệ thống mà họ đang sử dụng, phải có sự giám sát của con người và cơ hội để các quyết định do AI đưa ra bị thách thức.

Những người tạo ra các mô hình AI cần phải minh bạch về cách thức hoạt động của chúng và các doanh nghiệp tạo ra hoặc sử dụng AI cần phải làm việc với các nhóm có thể bị ảnh hưởng bởi các hệ thống AI.

Đồng sáng lập Viện Công nghệ Con người - Human Technology Institute tại Đại học Công nghệ Sydney UTS, Giáo sư Ed Santow, cho biết điều đó sẽ giúp giảm bớt sự thiên vị trong AI.

"Bạn có hiện tượng thiên vị thuật toán, nói cách khác, khi hệ thống AI đi chệch hướng và bắt đầu đối xử với mọi người kém thuận lợi hơn dựa trên giới tính, màu da, khuyết tật và những thứ khác mà họ không thể kiểm soát."

Điều này có nghĩa là khi AI được sử dụng để đưa ra quyết định trong các bối cảnh như tuyển dụng hoặc phê duyệt đơn đăng ký, nó có thể có sự phân biệt đối xử.

Giáo sư Gillespie cho biết kiến thức có thể giúp mọi người thách thức những quyết định đó.

"AI ngày càng được sử dụng theo cách rất vô hình đằng sau hậu trường để đưa ra những quyết định quan trọng về con người. Vì vậy, nếu AI không minh bạch khi được sử dụng, mọi người thường khó có thể xác định rằng liệu đã có một số thiên vị hay có quyết định nào đó không công bằng hay không."

Bước tiếp theo là một mã số bắt buộc đối với việc sử dụng AI có rủi ro cao.

Những gì được coi là rủi ro cao vẫn đang được xem xét, nhưng chính phủ đang quan tâm đến việc sử dụng AI trong các lĩnh vực như giáo dục, thực thi pháp luật, việc làm, sinh trắc học, hệ thống tư pháp, sức khỏe và an toàn, và tiếp cận các dịch vụ.

Giáo sư Santow cho biết có những tình huống mà AI không phù hợp.

"Đối với các quyết định có rủi ro cao, ảnh hưởng đến quyền con người của nhiều người, thì điều rất quan trọng là không để máy móc đưa ra quyết định đó. Bạn cần có sự giám sát tốt của con người, nói cách khác, những người chịu trách nhiệm cho quyết định có thể giải quyết quyết định một khi nó không ổn."

Bộ trưởng Husic cho biết bộ luật bắt buộc cũng sẽ áp dụng cho những người cung cấp mô hình hoặc sản phẩm AI.

"Họ sẽ yêu cầu các tổ chức phát triển và khai triển các mô hình trí tuệ nhân tạo đánh giá đúng những rủi ro đó và họ cũng phải lập kế hoạch quản lý những rủi ro đó, thử nghiệm các hệ thống AI của họ để bảo đảm rằng chúng an toàn, chia sẻ tất cả các quy trình đó một cách minh bạch, làm rõ khi nào AI được sử dụng, đặc biệt là khi nó trông giống con người. Bảo đảm rằng một người có thể thay thế AI bất cứ lúc nào và mọi người phải chịu trách nhiệm về các vấn đề an toàn có thể phát sinh."

Giáo sư Gillespie cho biết quy định là chìa khóa để xây dựng lòng tin.

"Người Úc nằm trong số những người cảnh giác và hoài nghi nhất về việc sử dụng AI. Chúng ta thực sự cần những can thiệp này. Chúng ta cần quy định chặt chẽ hơn để cung cấp một trong những cơ sở đó nhằm tạo nền tảng để chúng ta tin tưởng vào các công nghệ này."

Share