Tạo ra một thuật toán mạnh mẽ cũng giống xây dựng nhà máy điện hạt nhân. Vì vậy phải tạm dừng mở rộng trí tuệ nhân tạo trước khi nhân loại mất kiểm soát, chuyên gia AI cảnh báo.
Ông Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley (Mỹ)
Trong một cuộc phỏng vấn với tạp chí Business Today, chuyên gia trí tuệ nhân tạo Stuart Russell cho rằng nếu mối đe dọa của trí tuệ nhân tạo (AI) không được kiểm soát, sẽ tiềm ẩn hiểm họa như sự kiện nhà máy điện hạt nhân Chernobyl.
Theo ông Russell, các phòng thí nghiệm AI đang tiếp tục “cuộc chạy đua ngoài tầm kiểm soát” để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết, mà không ai – kể cả người tạo ra chúng – có thể dự đoán hoặc kiểm soát một cách đáng tin cậy.
Là giáo sư khoa học máy tính tại Đại học California, Berkeley (Mỹ), ông Stuart Russell đã có hàng chục năm làm lãnh đạo trong lĩnh vực AI.
Ông cùng những nhân vật nổi tiếng khác, như hai tỉ phú Elon Musk và Steve Wozniak, mới đây đã ký một bức thư ngỏ kêu gọi tạm dừng mở rộng AI, đồng thời kiểm soát việc phát triển các hệ thống AI mạnh mẽ, được định nghĩa là những thứ mạnh hơn GPT-4 của OpenAI.
Mô hình trí tuệ nhân tạo không còn nghe lời con người?
Các mô hình ngôn ngữ lớn được xây dựng trên một lượng lớn dữ liệu. Chẳng hạn như GPT-4, kết hợp từ khoảng 20.000 – 30.000 tỉ từ.
Sau đó, các hệ thống được huấn luyện thêm bằng cách điều chỉnh ngẫu nhiên hàng nghìn tỉ tham số, với mục tiêu cuối cùng là cải thiện khả năng dự đoán từ tiếp theo trong một chuỗi của mô hình.
Kết quả là một hệ thống AI có thể trò chuyện theo cách cực kỳ giống với con người, khiến một số chuyên gia tin rằng chúng đang nói chuyện với tâm trí thực.
Về cơ bản, hệ thống Al sẽ học cách kết hợp nhiều cuộc hội thoại có trong dữ liệu huấn luyện, và dùng điều đó để trả lời các câu hỏi. Vì vậy, hệ thống này giống như một con vẹt rất thông minh, ông Russell nói.
Tuy nhiên, khi được yêu cầu thực hiện các nhiệm vụ như cung cấp bằng chứng toán học dưới thể thơ sonnet của đại thi hào Shakespeare, các mô hình có thể tạo ra kết quả đầu ra vượt xa những gì có trong dữ liệu huấn luyện.
Điều này dẫn đến mối lo ngại rằng các mô hình Al đang tạo ra các mục tiêu và mẫu hành vi của riêng chúng, mà các nhà khoa học máy tính không thể hiểu hoặc kiểm soát.
“Thảm họa Chernobyl với AI”
Nếu không bị cản trở, kiểu phát triển vô kiểm soát trên có thể dẫn đến “thảm họa Chernobyl với AI”, ông Russell nói với tạp chí Business Today.
Chernobyl là thảm họa hạt nhân xảy ra ở Ukraine năm 1986. Dù đã hơn 35 năm trôi qua, thảm họa này vẫn tiếp tục gây ra những tác động xấu đến cuộc sống con người.
Giáo sư Russell lập luận rằng công thức triển khai các mô hình Al hiện tại sẽ dẫn đến thảm họa, với những hậu quả tiềm ẩn như lan truyền thông tin sai lệch, khuyến khích các cá nhân tự làm hại mình hoặc người khác…
“Trước việc sức mạnh của AI đang tăng lên mỗi ngày, điều quan trọng là chúng ta phải lùi lại một bước và đảm bảo rằng những công nghệ mạnh mẽ này được phát triển và triển khai một cách có trách nhiệm và an toàn”, ông nói.
Hiện nay các chính phủ trên thế giới đã nhận ra những rủi ro tiềm ẩn liên quan đến AI và nhiều nước đang soạn thảo các dự luật kiểm soát AI.
Bước đầu, Tổ chức Hợp tác và Phát triển kinh tế (OECD) đã công bố các nguyên tắc phát triển AI có trách nhiệm đối với các công ty công nghệ trên toàn cầu.
Nguồn: tuoitre.vn