Quốc tế

Vì sao giới chuyên gia muốn tạm dừng phát triển AI?

09:27, 31/03/2023 (GMT+7)

Ông Elon Musk, CEO Công ty xe điện Tesla; ông Steve Wozniak, nhà đồng sáng lập hãng công nghệ Apple; ông Yoshua Bengio, một trong những người tiên phong phát triển công nghệ trí tuệ nhân tạo (AI), nằm trong số các chuyên gia và lãnh đạo công nghệ cùng ký bức thư ngỏ đề nghị tạm ngừng ngay lập tức các thử nghiệm AI ngoài kiểm soát trong 6 tháng.

Siêu máy tính AI mới Andromeda của Công ty khởi nghiệp Cerebras Systems được đặt tại California (Mỹ). Ảnh: Reuters
Siêu máy tính AI mới Andromeda của Công ty khởi nghiệp Cerebras Systems được đặt tại California (Mỹ). Ảnh: Reuters

Tuy bức thư không kêu gọi dừng các hoạt động phát triển AI nhưng hối thúc các công ty hãy tạm ngừng việc huấn luyện thêm các công cụ AI thế hệ mới như GPT-4, mô hình AI có khả năng xử lý ngôn ngữ tự nhiên của con người do Công ty OpenAI vừa công bố tháng này.

Cuộc đua ngoài tầm kiểm soát

Lá thư ngỏ cho rằng, khoảng thời gian tạm ngưng tối thiểu 6 tháng sẽ giúp có thêm thời gian để thiết lập tiêu chuẩn an toàn cho thiết kế công nghệ AI, lường trước và ngăn ngừa rủi ro tiềm ẩn mà công nghệ này có thể tạo ra. Bức thư cũng “than thở”, việc quan tâm và lường trước mọi việc để có thể bảo đảm sự an toàn của các hệ thống AI là điều vô cùng cần thiết nhưng tiếc rằng lại đang bị phớt lờ.

Bức thư ngỏ có tiêu đề “Hãy tạm dừng các thử nghiệm AI” được công bố ngày 29-3 trong bối cảnh các công ty đang chạy đua phát triển các hệ thống chat tinh vi, phức tạp có khả năng tích hợp công nghệ GPT-4. Mới đây, Microsoft xác nhận công cụ tìm kiếm Bing đã được tích hợp mô hình GPT-4 trong hơn 7 tuần, trong khi đối thủ “ngang cơ” Google cũng vừa trình làng Bard, công cụ chatbot có cách thức hoạt động như ChatGPT với khả năng trò chuyện trực tiếp và trả lời mọi câu hỏi, thắc mắc của người dùng.
Tương tự, các công ty như Adobe, Zoom và Salesforce cũng ra mắt những công cụ AI tân tiến. “Cuộc đua bắt đầu hôm nay. Chúng ta sẽ tiến lên và tiến nhanh”, ông Satya Nadella, CEO Microsoft, nói.

Không thể phớt lờ

Thực tế, cuộc đua về phát triển AI ngày càng gay gắt giữa các “gã không lồ” công nghệ nhằm thúc đẩy các mô hình AI đi tới tận cùng về khả năng của nó đang khiến những lo ngại này trở nên gấp rút và căng thẳng hơn bao giờ hết. “Việc quy hoạch và quản lý ở cấp độ này vẫn chưa diễn ra, mặc dù trong những tháng qua người ta đã chứng kiến các phòng thí nghiệm AI lao vào cuộc đua mất kiểm soát để phát triển và triển khai các bộ não số mạnh mẽ hơn bao giờ hết, những thứ mà không ai, ngay cả chính những người tạo ra chúng, có thể hiểu, dự báo hoặc kiểm soát theo cách đáng tin cậy”, chuyên trang công nghệ Engadget trích dẫn một đoạn thư ngỏ.

Tỷ phú Elon Musk trước đây đã tài trợ 10 triệu USD cho tổ chức Future of Life Institute (FLI) để tiến hành các nghiên cứu về sự an toàn của AI. Ngoài những tên tuổi ở trên, rất nhiều các nhà lãnh đạo đang làm việc trong mảng AI trên toàn thế giới, trong đó có Chủ tịch Trung tâm chính sách AI và công nghệ số Marc Rotenberg, nhà vật lý học tại Viện Công nghệ Massachusetts kiêm Chủ tịch FLI Max Tegmark cũng tham gia ký vào thư ngỏ.

“Chúng ta đã tiến tới thời điểm các hệ thống này đủ thông minh tới mức chúng có thể được sử dụng theo những cách sẽ gây nguy hiểm cho xã hội”, Wall Street Journal dẫn lời ông Bengio, Giám đốc Viện nghiên cứu các thuật toán học máy Montreal của Đại học Montrel, nói. “Thật không may khi phải mô phỏng điều này như cuộc đua vũ trang. Không quan trọng việc ai sẽ là người về đích trước. Nó chỉ có nghĩa là nhân loại nói chung có thể mất kiểm soát với chính số phận của mình”, ông Max Tegmark nói.

Lời kêu gọi của bức thư ngỏ chắc chắn sẽ vấp phải sự phản ứng do tâm thế đang hừng hực muốn vượt lên phía trước trong cuộc đua phát triển hệ thống AI tạo sinh của các hãng công nghệ. AI tạo sinh (generative AI) là kiểu công nghệ có khả năng sản sinh ra các nội dung theo yêu cầu của con người. Ông Sam Altman, CEO Công ty OpenAI, cho biết vẫn chưa triển khai đào tạo hệ thống GPT-5, thế hệ tiếp theo của GPT-4 vừa công bố. Công ty vẫn luôn ưu tiên vấn đề an toàn trong phát triển và đã dành hơn 6 tháng để làm các thử nghiệm đánh giá độ an toàn của GPT-4 trước khi chính thức ra mắt nó.

Ngày 30-3 Chính phủ Anh công bố Sách trắng hướng dẫn cụ thể về việc thực hiện các quy định liên quan đến AI. Sách trắng nêu 5 nguyên tắc mà các công ty phải tuân theo gồm: an toàn, bảo mật và mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; và khả năng cạnh tranh và khắc phục. Nhiều quốc gia khác cũng đã đưa ra quy định để quản lý AI. Chính phủ Trung Quốc yêu cầu các công ty công nghệ cung cấp thông tin chi tiết về các thuật toán, trong khi Liên minh châu Âu đề xuất quy định của riêng mình cho ngành này.

TRẦN ĐẮC LUÂN

.