Ứng dụng trí tuệ nhân tạo: Xu thế tất yếu và những nguy cơ đối với loài người

.

Ứng dụng trí tuệ nhân tạo (AI) trong các hoạt động sản xuất và hoạt động nói chung của con người đang trở thành một xu thế tất yếu của thời đại. Tuy nhiên, điều này cũng đồng nghĩa với những rủi ro, nguy cơ đe dọa an ninh - an toàn của chính xã hội loài người. 

Công dân robot Sophia - bằng chứng của việc robot ngày càng giống con người thật. Ảnh: Thùy Dương/Báo Tin tức
Công dân robot Sophia - bằng chứng của việc robot ngày càng giống con người thật. Ảnh: Thùy Dương/Báo Tin tức

Bài viết trên trang mạng Eurativ.fr cho biết hiện một nhóm gồm 52 chuyên gia đến từ các học viện, doanh nghiệp và xã hội dân sự ở châu Âu, đang soạn thảo một báo cáo về đạo đức và AI. Họ đã đề cập đến một loạt "sự lo ngại nghiêm trọng" cho tương lai của AI.

Các chuyên gia lưu ý rằng robot ngày càng trở nên giống với con người, vì vậy EU đang cố gắng đảm bảo rằng chúng không bao giờ bị nhầm lẫn với người thật, do đó đảm bảo ranh giới rõ ràng các nguyên tắc về đạo đức, hành vi và giá trị giữa người thật và robot.

Các nhà phát triển AI nên đảm bảo rằng con người phải được thông báo về việc họ tương tác với danh tính AI (không phải con người) hoặc họ có thể yêu cầu và xác thực thông tin này.

Các tác giả nghiên cứu cho biết việc đưa người máy "siêu thực" vào xã hội có thể thay đổi nhận thức của chúng ta về con người và nhân loại. Cần lưu ý rằng sự nhầm lẫn giữa con người và máy móc có thể gây ra những hậu quả khó lường, chẳng hạn như sự gắn bó, ảnh hưởng hoặc giảm giá trị của con người. Do đó, sự phát triển của robot và nhất là robot hình người phải là chủ đề của sự đánh giá đạo đức một cách cẩn thận.

Một lĩnh vực khác khiến các chuyên gia lo lắng là việc sử dụng AI trong các công nghệ nhận dạng, chẳng hạn như phần mềm nhận dạng khuôn mặt. Những công nghệ này hiện được thử nghiệm ở Anh. Cảnh sát Anh tin rằng công nghệ sẽ cho phép họ nhận ra tội phạm bị truy nã trong số hàng loạt người tham gia mua sắm Giáng sinh. Đối với các tác giả của báo cáo, thiếu sự chấp thuận của người dân trong việc áp dụng thì cũng tạo ra một vấn đề đạo đức nghiêm trọng.

Báo cáo cũng đề cập đến chủ đề của các hệ thống vũ khí chiến đấu tự hành, còn được gọi là "robot sát thủ". Các hệ thống này có thể hoạt động mà không cần sự kiểm soát thực sự của con người. Đây là ví dụ về trường hợp thiết bị theo dõi tên lửa tự hành.

Hồi tháng 9, Nghị viện châu Âu đã thông qua nghị quyết kêu gọi lệnh cấm quốc tế đối với các "robot sát thủ" này, trong đó có các tên lửa có khả năng lựa chọn mục tiêu cũng như những cỗ máy có khả năng học hỏi với kỹ năng nhận thức để có thể ra quyết định sẽ tấn công ai, khi nào và ở đâu. Các nghị sĩ nhấn mạnh những "máy móc không thể đưa ra quyết định như con người và đánh giá rằng các quyết định trong chiến tranh phải là đặc quyền của bộ não con người."

Tập đoàn LG của Hàn Quốc trình làng tại IFA 2018 siêu phẩm CLOi SuitBot (phía trước), một khung xương máy đeo bên ngoài cơ thể có khả năng tăng cường sức mạnh đôi chân cho người sử dụng và có thể kết nối với những sản phẩm người máy khác của LG để thực hiện nhiệm vụ phức tạp. Ảnh: AFP/TTXVN
Tập đoàn LG của Hàn Quốc trình làng tại IFA 2018 siêu phẩm CLOi SuitBot (phía trước), một khung xương máy đeo bên ngoài cơ thể có khả năng tăng cường sức mạnh đôi chân cho người sử dụng và có thể kết nối với những sản phẩm người máy khác của LG để thực hiện nhiệm vụ phức tạp. Ảnh: AFP/TTXVN

Một cách tổng quát, các kết luận về phương hướng đạo đức của Ủy ban châu Âu bảo vệ cách tiếp cận lấy con người làm trung tâm để phát triển AI, phù hợp với các quyền cơ bản và các giá trị xã hội. Về lâu dài, mục tiêu là thúc đẩy một AI đáng tin cậy.

Phó Chủ tịch Ủy ban châu Âu phụ trách thị trường kỹ thuật số Andrus Ansip đánh giá AI mang lại lợi ích lớn cho xã hội, từ việc phát hiện và chữa lành ung thư đến giảm tiêu thụ năng lượng. Nhưng để mọi người dân chấp nhận và sử dụng các hệ thống dựa trên AI, các nhà quản lý cần đảm bảo với người dân rằng quyền riêng tư của họ sẽ được tôn trọng và các quyết định đưa ra là hoàn toàn công bằng, minh bạch.

Theo TTXVN

;
;
.
.
.
.
.