"Cha đẻ" ChatGPT kêu gọi quy tắc kiểm soát AI

.

Ông Sam Altman, CEO của OpenAI, công ty đứng sau ChatGPT “gây bão” toàn cầu, vừa dự phiên điều trần đầu tiên trước Quốc hội Mỹ. Tại đây, ông Altman khẳng định, sự can thiệp của chính phủ, cùng với các quy định pháp lý, là điều vô cùng quan trọng để giảm thiểu rủi ro và cạm bẫy tiềm ẩn của trí tuệ nhân tạo (AI).

Ông Sam Altman (bên phải), CEO của OpenAI tham gia phiên điều trần ngày 16-5. Ảnh: The Washington Post
Ông Sam Altman (bên phải), CEO của OpenAI tham gia phiên điều trần ngày 16-5. Ảnh: The Washington Post

Tại phiên điều trần với chủ đề “Giám sát AI: Quy tắc cho AI” ngày 16-5, giới lập pháp chất vấn ông Altman về việc xem xét quy tắc cần thiết để bảo vệ người dùng khi các nước bắt đầu ứng dụng AI trong mọi lĩnh vực. Thượng nghị sĩ Josh Hawley của đảng Cộng hòa khẳng định, phiên điều trần đánh dấu bước quan trọng đầu tiên để các nhà lập pháp biết nên làm gì trước sự trỗi dậy đáng lo ngại của AI trong bối cảnh chính phủ Mỹ siết chặt giám sát sản phẩm AI vi phạm các quyền dân sự và luật bảo vệ người dùng hiện hành.

Reuters dẫn phát biểu của ông Altman cho biết: “Cũng như mọi người, chúng tôi rất lo lắng về việc AI có thể thay đổi cách chúng ta sống. AI có thể gây tác hại đáng kể cho thế giới, và nếu công nghệ này gặp trục trặc thì nó có thể dẫn đến rất nhiều sai lầm. Chúng ta cần khuôn khổ mới cho AI”. Do đó, CEO OpenAI đề xuất lập cơ quan của Mỹ hoặc ở cấp độ toàn cầu nhằm cấp phép cho thử nghiệm và vận hành các mô hình AI và cũng có quyền rút giấy phép đó nếu xảy ra vi phạm về tiêu chuẩn an toàn. Doanh nhân này cũng đề xuất thiết lập và áp dụng bộ tiêu chuẩn an toàn và mô hình thử nghiệm cụ thể trước khi sản phẩm AI có thể được triển khai; cho phép các kiểm toán viên độc lập kiểm tra các mô hình trước khi chúng được tung ra thị trường; áp đặt biện pháp bảo vệ nhằm ngăn chặn các mô hình AI tiên tiến trong tương lai có thể thao túng con người để từ bỏ quyền kiểm soát chúng…

Phiên điều trần có sự hiện diện của nhóm chuyên gia AI vốn lâu nay kêu gọi OpenAI và các “gã khổng lồ” công nghệ khác tạm dừng phát triển mô hình AI tiên tiến hơn trong vòng 6 tháng để có thêm thời gian xem xét mọi rủi ro. Thượng nghị sĩ Richard Blumenthal, Chủ tịch tiểu ban của Ủy ban Tư pháp Thượng viện về quyền riêng tư, công nghệ và luật pháp, cho biết các công ty phải trải qua vòng kiểm tra hệ thống phát triển AI và tiết lộ những rủi ro trước khi được “trình làng”. Trong khi đó, một số nhà lãnh đạo ngành công nghệ cho biết, họ hoan nghênh một số hình thức giám sát AI, song lo ngại tác động của những quy tắc quá hà khắc. Giám đốc ủy thác và quyền riêng tư của Tập đoàn IBM Christina Montgomery cho biết: “Về cơ bản, AI nên được điều chỉnh tại điểm rủi ro bằng cách thiết lập quy tắc chi phối triển khai mục đích sử dụng cụ thể của AI”.

Theo Bloomberg, “cha đẻ” của ChatGPT đang lên kế hoạch thực hiện chuyến công du tới các thành phố lớn của các quốc gia trong tháng 5-2023 để trao đổi về công nghệ này với các nhà hoạch định chính sách và công chúng. OpenAI cũng tiết lộ đang xây dựng các công cụ mà một ngày nào đó sẽ giải quyết một số thách thức lớn nhất của nhân loại như biến đổi khí hậu và chữa ung thư. GPT-4, mô hình ngôn ngữ lớn mới nhất của OpenAI, sẽ tự động hóa hoàn toàn một số công việc, song cũng sẽ tạo ra những công việc mới tốt hơn.

Nguy cơ thông tin sai lệch khi dùng AI trong y tế
Ngày 16-5, Tổ chức Y tế thế giới (WHO) cảnh báo, cần thận trọng với AI trong chăm sóc sức khỏe cộng đồng bởi các dữ liệu được AI sử dụng để đưa ra kết quả có thể bị thiên lệch, tạo ra thông tin sai lệch hoặc không chính xác. Theo WHO, dù AI có tiềm năng lớn trong phát triển chăm sóc sức khỏe, song công nghệ này cũng làm dấy lên lo ngại về cách thức AI được sử dụng để tiếp cận thông tin y tế bởi AI được xem là công cụ hỗ trợ để ra kết quả và cải thiện chẩn đoán. WHO nhấn mạnh việc bắt buộc đánh giá rủi ro liên quan sử dụng những mô hình ngôn ngữ lớn (LLM) tương tự ChatGPT, để bảo vệ và thúc đẩy phúc lợi con người, cũng như sức khỏe cộng đồng.

THƯ LÊ

;
;
.
.
.
.
.