Trong khi công ty OpenAI đẩy nhanh tốc độ phát triển các hệ thống trí tuệ nhân tạo tổng quát (AGI), làn sóng ra đi của các chuyên gia nghiên cứu về an toàn AI đang làm dấy lên những câu hỏi đáng lo ngại về cách tiếp cận của Thung lũng Silicon đối với một trong những bước phát triển công nghệ có ý nghĩa nhất của nhân loại.
CEO OpenAI, ông Sam Altman. Ảnh: TIME |
Cuối năm 2023, ông Jan Leike, đồng trưởng nhóm nghiên cứu an toàn của siêu trí tuệ nhân tạo do OpenAI phát triển, đưa ra cảnh báo nghiêm trọng trước khi rời đi: “Trong các năm qua, văn hóa và quy trình an toàn đã bị đẩy xuống hàng thứ yếu để nhường chỗ cho các sản phẩm hào nhoáng”, trích từ bài đăng của ông Jan Leike trên mạng xã hội X.
Tham vọng AGI và tầm nhìn về tương lai
Theo tạp chí TIME, ông Sam Altman, CEO OpenAI, gần đây tuyên bố đầy tự tin trên blog cá nhân: “Chúng tôi tin chắc mình biết cách xây dựng AGI theo cách chúng ta vẫn hiểu về nó”. OpenAI định nghĩa AGI là hệ thống tự động cao độ vượt trội con người trong hầu hết các công việc có giá trị kinh tế. Điều này có nghĩa hệ thống như vậy sẽ có những khả năng đáng kể như: quản lý dự án lập trình phức tạp từ đầu đến cuối, vận dụng kiến thức sinh học để giải quyết vấn đề kỹ thuật, hoặc viết tiểu thuyết đạt giải Pulitzer…
Ông Altman dự đoán những thay đổi đáng kể trong môi trường làm việc sẽ diễn ra sớm hơn nhiều người nghĩ. “Trong năm 2025, chúng ta có thể thấy các tác nhân AI (hay các “nhân viên ảo”) đầu tiên tham gia lực lượng lao động và thay đổi đáng kể năng suất của các công ty”, TIME trích lời ông Altman. Tuy nhiên, ông Altman cũng có cái nhìn thực tế hơn về tác động của AGI. Trong một phát biểu gần đây, ông nói: “AGI có thể được xây dựng, thế giới phần lớn vẫn tiếp tục theo cách tương tự, mọi thứ phát triển nhanh hơn, nhưng sau đó sẽ có chặng đường dài từ những gì chúng ta gọi là AGI đến cái gọi là trí tuệ siêu việt”. Theo dự đoán của ông Altman, điều này có thể xảy ra trong vòng vài nghìn ngày tới.
Tốc độ có “đè bẹp” an toàn?
Tuy nhiên, làn sóng nghỉ việc của các chuyên gia an toàn AI tại OpenAI đang làm dấy lên những lo ngại sâu sắc về cam kết của công ty này đối với sự phát triển AI có trách nhiệm.
Kể từ cuối năm 2023, nhiều nhà nghiên cứu hàng đầu của công ty này lần lượt nghỉ việc. Đáng chú ý nhất là sự ra đi của ông Ilya Sutskever, đồng sáng lập kiêm trưởng khoa học; bà Mira Murati, Giám đốc công nghệ; và ông Alec Radford, tác giả chính của nghiên cứu nền tảng giới thiệu về công nghệ GPT, theo TIME.
Điều đáng lo ngại hơn là OpenAI công khai thừa nhận họ không biết cách điều khiển và kiểm soát đáng tin cậy các hệ thống AI siêu việt. Trong bối cảnh đó, đội ngũ được thành lập để dẫn dắt công việc điều khiển các hệ thống siêu trí tuệ nhằm bảo đảm an toàn cho con người đã bị giải tán sau khi cả hai đồng trưởng nhóm rời đi. Hiện tại, theo TIME, OpenAI duy trì ba cơ quan an toàn: nhóm cố vấn an toàn nội bộ, ủy ban an toàn và bảo mật (thuộc hội đồng quản trị), và hội đồng triển khai an toàn với sự tham gia của cả OpenAI và Microsoft.
Quan điểm của tỷ phú Sam Altman về sự an toàn AI cũng đã có sự thay đổi đáng kể. Từ những cảnh báo nghiêm trọng năm 2015 về mối đe dọa với sự tồn tại của nhân loại, CEO OpenAI giờ đây đang tích cực thúc đẩy phát triển nền tảng công nghệ siêu trí tuệ.
Áp lực tài chính dường như là một trong những động lực chính thúc đẩy tốc độ phát triển chóng mặt này. OpenAI hiện đang thua lỗ hàng tỷ USD mỗi năm và dự kiến khoản lỗ có thể tăng gấp ba lên 14 tỷ USD vào năm 2026. Công ty thậm chí không kỳ vọng có lãi cho đến tận năm 2029.
Trước những lo ngại về rủi ro từ AI trong cuộc phỏng vấn gần đây với Bloomberg, ông Altman đưa ra một tuyên bố gây tranh cãi: “Tôi có thể đồng thời nghĩ rằng những rủi ro này là có thật và cũng tin rằng cách duy nhất để giải quyết chúng một cách thích hợp là tung ra sản phẩm và học hỏi”.
Thách thức kiểm soát AI siêu việt Vấn đề then chốt mà các chuyên gia đang đối mặt là làm thế nào để bảo đảm các hệ thống AI siêu việt luôn hành động phù hợp với giá trị và mong muốn của con người. Nick Bostrom, triết gia nổi tiếng với cuốn sách “Superintelligence: Paths, Dangers, Strategies” (Trí tuệ siêu việt: các con đường, nguy cơ và chiến lược) được Altman đánh giá cao, định nghĩa trí tuệ siêu việt là “bất kỳ trí tuệ nào vượt xa khả năng nhận thức của con người trong hầu hết mọi lĩnh vực quan tâm”. Theo OpenAI, “một hệ thống AGI siêu việt không được điều chỉnh phù hợp có thể gây ra những tổn hại nghiêm trọng cho thế giới; một chế độ độc tài với lợi thế quyết định về trí tuệ siêu việt cũng có thể làm điều tương tự. |
TRẦN ĐẮC LUÂN