Sự ra đời của ChatGPT mở ra tiềm năng to lớn về việc ứng dụng trí tuệ nhân tạo (AI), nhưng đồng thời cũng đẩy những lo ngại về AI lên ngưỡng buộc các quốc gia phải tính đến việc quản lý các rủi ro.

Các nước ứng xử với AI, ChatGPT ra sao? - Ảnh 1.

“Cơn sốt” ChatGPT

“Như ChatGPT đã thể hiện, các giải pháp AI có thể mang lại cơ hội tuyệt vời cho doanh nghiệp và người dân, nhưng cũng có thể gây ra rủi ro. Đây là lý do tại sao chúng ta cần một khung pháp lý vững chắc để đảm bảo AI đáng tin cậy dựa trên dữ liệu chất lượng cao” – Hãng tin Reuters dẫn lời ông Thierry Breton, ủy viên phụ trách công nghiệp của Liên minh châu Âu, nói hôm 5-2.

EU cân nhắc đạo luật AI

Ông Breton cho biết những rủi ro từ ChatGPT và các hệ thống AI khác đặt nhu cầu cấp thiết phải đặt ra các quy tắc thiết lập tiêu chuẩn toàn cầu cho công nghệ và Brussels đang thảo luận các dự thảo quy định. Nếu được áp dụng, đây sẽ là đạo luật AI đầu tiên trên thế giới.

Theo các quy tắc dự thảo của EU, ChatGPT được coi là một hệ thống AI có thể được sử dụng cho nhiều mục đích, bao gồm cả những mục đích có rủi ro cao như tuyển dụng và chấm điểm tín dụng. Các cơ quan của châu Âu đang hợp tác để làm rõ hơn các quy tắc trong đạo luật AI cho các hệ thống AI có mục đích chung và các vấn đề khác như bản quyền.

Chẳng hạn, “mọi người cần được thông báo rằng họ đang làm việc với một chatbot (hệ thống phản hồi tự động) chứ không phải con người. Tính minh bạch cũng rất quan trọng đối với nguy cơ thông tin sai lệch và định kiến”.

Chính phủ Úc và New Zealand đã công bố các khuôn khổ liên quan đến AI nhưng không phải là các quy tắc ràng buộc. Các đạo luật của cả hai quốc gia liên quan đến quyền riêng tư, tính minh bạch và không bị phân biệt đối xử, nhưng đều không thể xử lý các ảnh hưởng từ AI.

Còn các quy định AI được Canada đề xuất lại khá thoải mái cho phép AI ứng dụng vào nhiều khía cạnh của cuộc sống con người trong tương lai, theo Đài CBC.

Trong khi đó, Mỹ đã có Sáng kiến trí tuệ nhân tạo quốc gia được hợp pháp hóa từ năm 2021. Và kể từ năm 2019, bang California đã cấm việc sử dụng AI tương tác với người dùng vì mục đích thương mại hoặc bầu cử mà không công bố đó không phải là con người.

Mới đây, Viện Tiêu chuẩn và Công nghệ quốc gia (NIST) Mỹ đã công bố khung quản lý rủi ro AI nhưng không chắc các công ty công nghệ lớn sẽ tuân thủ như thế nào khi nó chỉ mang tính tự nguyện.

 “Việc AI được đưa vào quy định cho thấy tốc độ phát triển của công nghệ và các cơ quan quản lý đang phải vật lộn để theo kịp tốc độ này”, một luật sư tại công ty luật của Mỹ đánh giá.

Các nước ứng xử với AI, ChatGPT ra sao? - Ảnh 2.

Nguồn

Rủi ro của ChatGPT đang ở mức nào?

Chỉ hai tháng sau khi ra mắt, mô hình ngôn ngữ ChatGPT đã trở thành ứng dụng có tốc độ phát triển nhanh nhất lịch sử với khả năng viết báo, luận văn, truyện cười và thậm chí là thơ. Dù được đánh giá là một bước nhảy vọt về công nghệ, nhưng nó cũng có thể trở thành thảm họa trong tay kẻ xấu.

OpenAI, một công ty tư nhân do Microsoft góp vốn, khẳng định mục tiêu của họ khi cho ra đời ChatGPT là tạo ra trí tuệ nhân tạo “mang lại lợi ích cho toàn nhân loại” và an toàn.

Thực tế là vẫn có những mặt tối của AI. Các nhà nghiên cứu an ninh mới đây đã phát hiện một số nội dung độc hại do ChatGPT viết trên một số diễn đàn tội phạm mạng, như email lừa đảo để đánh cắp thông tin cá nhân. Một số lập trình viên cũng đã vượt qua được các giao thức an ninh của ChatGPT để yêu cầu AI này viết mã độc.

Với khả năng sáng tạo hình ảnh của AI cũng được cho là có thể tạo ra vân tay giả hoặc vượt qua bước nhận diện gương mặt trên các thiết bị công nghệ. Đó là chưa kể nhiều người dùng phát hiện các lỗ hổng cho phép nó viết các nội dung phân biệt chủng tộc, giới tính…

Hiện tại, các rủi ro từ AI dường như vẫn chưa lớn. Tuy nhiên, giới phân tích cho rằng sự tham gia của AI sẽ khiến các rủi ro an ninh mạng phức tạp và khó phát hiện hơn. “AI có thể cho phép tội phạm mạng nhắm mục tiêu có chọn lọc hơn vào những người dễ bị tổn thương như… người già, người khuyết tật hoặc người gặp khó khăn về tài chính”, nhà nghiên cứu Brendan Walker-Munro, Đại học Queensland, nhận định trên trang The Conversation.

Cần quản lý công ty tạo ra AI

Trả lời trên tờ Time mới đây, bà Mira Murati, trưởng bộ phận công nghệ của OpenAI, thừa nhận cần có sự quản lý đối với các công ty tạo ra AI.

“Công nghệ định hình chúng ta và chúng ta định hình nó. Có rất nhiều vấn đề khó giải quyết. Làm cách nào để khiến mô hình thực hiện điều ta muốn và cách ta đảm bảo rằng nó phù hợp với ý định của con người và cuối cùng là phục vụ nhân loại? Ngoài ra còn có rất nhiều câu hỏi xung quanh tác động xã hội, và có rất nhiều câu hỏi về đạo đức, triết học mà chúng ta cần xem xét”, bà Murati nói.

Nguồn: tuoitre.vn

Từ khóa : Các nước ứng xử với AIChatGPTChatGPT ra sao

Các tin liên quan đến bài viết