Thỏa thuận quốc tế đầu tiên về AI

.

Mỹ và 17 quốc gia khác đã thông qua bản Hướng dẫn quốc tế mới về phát triển hệ thống trí tuệ nhân tạo (AI). Đây là thỏa thuận chi tiết đầu tiên về cách thức bảo đảm công nghệ AI được sử dụng an toàn trước nguy cơ lừa đảo, đồng thời hối thúc các công ty công nghệ phải tạo các hệ thống AI “an toàn ngay trong bước thiết kế”.

18 quốc gia nhất trí thông qua bản hướng dẫn quốc tế mới về phát triển hệ thống AI.  Ảnh minh họa: Reuters
18 quốc gia nhất trí thông qua bản hướng dẫn quốc tế mới về phát triển hệ thống AI. Ảnh minh họa: Reuters

Các nước còn lại nằm trong số 18 quốc gia ủng hộ bản hướng dẫn này cùng với Anh, Úc, Canada, Chile, Cộng hòa Czech, Estonia, Pháp, Đức, Israel, Nhật Bản, New Zealand, Nigeria, Na Uy, Ba Lan, Singapore, Hàn Quốc và Mỹ. Các hướng dẫn mới về phát triển an toàn AI sẽ giúp các nhà phát triển của bất kỳ hệ thống nào sử dụng AI đưa ra quyết định sáng suốt về an ninh mạng ở mọi giai đoạn của quá trình phát triển.

“Tuyên bố Bletchley về an toàn AI”

Theo Reuters, mục tiêu của bản hướng dẫn mới là nâng cao mức độ bảo mật của AI để bảo đảm rằng nó được thiết kế, phát triển và sử dụng một cách an toàn. Đây là tài liệu được trình bày tại hội nghị cấp cao Bletchley Park ở Anh gần đây. Theo “Tuyên bố Bletchley về an toàn AI” được công bố ngày 26-11, các công ty thiết kế và đưa vào sử dụng AI cần phát triển và triển khai công nghệ theo hướng tránh AI trở thành công cụ của các phần tử bất hảo và gây phương hại cho người dùng. “Khung giải pháp” này giải quyết các câu hỏi về cách bảo vệ công nghệ AI trước sự tấn công của tin tặc và các khuyến nghị như chỉ phát hành mô hình sau khi trải qua quá trình kiểm tra bảo mật thích hợp và khắt khe.

Nhận định về tầm quan trọng của tài liệu trên, Giám đốc Cơ quan An ninh cơ sở hạ tầng và an ninh mạng Mỹ, bà Jen Easterly, nhấn mạnh: “Đây là lần đầu tiên chúng ta cùng khẳng định rằng AI không chỉ liên quan các tính năng thú vị và tốc độ ra mắt thị trường hay cách cạnh tranh để giảm chi phí, mà hơn thế, với thỏa thuận vừa đạt được, mọi người nhất trí rằng điều quan trọng nhất cần phải thực hiện ở giai đoạn thiết kế chính là an ninh”. Thỏa thuận này là sáng kiến mới nhất trong một loạt sáng kiến được thúc đẩy bởi chính phủ của các nước nhằm định hình phát triển của AI, lĩnh vực mà sức ảnh hưởng của nó ngày càng được cảm nhận rõ ràng trong ngành công nghiệp và xã hội nói chung.

Tài liệu này thu hút sự chú ý của dư luận quốc tế bởi nó ra được công bố vào thời điểm mức độ phủ sóng của AI toàn cầu ở mức “quá nhanh, quá nguy hiểm”, đồng thời là chủ đề thảo luận chủ đạo của năm 2023, đặc biệt kể từ khi ra mắt ChatGPT của OpenAI vào tháng 11-2022 và theo sau các chatbot dựa trên AI sáng tạo nổi bật khác như Bard của Google và Claude của Anthropic. Không giống như các chatbot truyền thống, các chatbot dựa trên AI tổng quát này có khả năng xử lý nhiều vụ chỉ bằng một lời nhắc, từ yêu cầu mô hình viết một cuốn tiểu thuyết đến thậm chí nhận được câu trả lời cho một vấn đề vật lý phức tạp. Chính AI được nhà xuất bản từ điển Collins (Anh) chọn là “Từ khóa của năm 2023”. Cùng với lợi ích không thể phủ nhận, sự phát triển của hệ thống AI siêu thông minh đặt ra mối lo ngại về hậu quả khôn lường nếu nó không được kiểm soát. AI là một trong những ưu tiên hàng đầu trong nhiệm kỳ Chủ tịch Nhóm các nền công nghiệp phát triển hàng đầu thế giới (G7) của Ý vào năm 2024. Rõ ràng, chỉ có nỗ lực tập thể mới giúp giải quyết các thách thức về AI và thỏa thuận này là minh chứng cho điều này.

Vẫn còn câu hỏi hóc búa

Dù được ca ngợi về triển vọng đầy hứa hẹn về kiểm soát AI, nhưng thỏa thuận này không mang tính ràng buộc và cũng không thể giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp hoặc cách thu thập dữ liệu cung cấp cho các mô hình này. Bà Lindy Cameron, Giám đốc điều hành Trung tâm An ninh mạng quốc gia (NCSC) của Anh cho biết: “Nếu không hành động ngay bây giờ, chúng ta có nguy cơ xây dựng hệ sinh thái thiếu sót cho AI. Các nhà phát triển AI phải dự đoán các cuộc tấn công có thể xảy ra và xác định các cách để giảm thiểu chúng, ngăn chặn các lỗ hổng cho các hệ thống AI trong tương lai”.

Hiện, chính phủ nhiều nước cũng đang nỗ lực quản lý công nghệ đang phát triển mạnh như vũ bão này. Châu Âu đi trước Mỹ một bước về ban hành các quy định liên quan đến AI. Pháp, Đức và Ý gần đây cũng đã đạt được thỏa thuận về cách quản lý AI nhằm hỗ trợ “sự tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử” cho cái gọi là mô hình nền tảng của AI, được thiết kế để tạo ra nhiều loại đầu ra. Chính quyền Tổng thống Mỹ Joe Biden đã thúc ép các nhà lập pháp ban hành quy định AI nhưng Quốc hội Mỹ bị chia rẽ nên đạt được rất ít tiến bộ trong việc thông qua quy định hiệu quả.

Theo The Guardian, Vương quốc Anh sẽ thành lập Viện An toàn AI đầu tiên trên thế giới để đánh giá và thử nghiệm các mô hình mới, qua đó xác định tất cả rủi ro tiềm ẩn từ AI. Nước này cũng tăng khoản tài trợ chi cho dự án “Tài nguyên Nghiên cứu AI” lên gần 374 USD, gấp 3 lần so với công bố trước đó. Đây là dự án vận dụng năng lực của hai siêu máy tính ở Cambridge và Bristol để phân tích những mô hình AI hiện đại nhằm thử nghiệm các tính năng an toàn trong quá trình sử dụng công nghệ mới. Tương tự, Hội đồng Liên bang Thụy Sĩ đã yêu cầu cơ quan chức năng đánh giá tổng quan về các phương pháp quản lý khả thi đối với AI, từ đó xác định các phương pháp tiếp cận tiềm năng để điều chỉnh quy định quản lý vào cuối năm 2024. Cũng không nằm ngoài “cuộc chơi”, Mỹ cũng thành lập Viện An toàn AI nhằm đánh giá mức độ an toàn của các hệ thống AI và hướng dẫn quản lý các vấn đề phát sinh liên quan.

THƯ LÊ

;
;
.
.
.
.
.