Nhiều người cho rằng trí tuệ nhân tạo (AI) tốt hay xấu, thiện hay ác phụ thuộc vào cách con người sử dụng và quản lý nó. Nhưng quản lý AI như thế nào thì không phải câu hỏi dễ trả lời.
Tổng thư ký Liên Hiệp Quốc António Guterres phát biểu trước Hội đồng Bảo an LHQ trong cuộc họp về AI ngày 18-7
Ngày 18-7, Hội đồng Bảo an Liên Hiệp Quốc (LHQ) lần đầu tiên tổ chức phiên họp về mối đe dọa của AI với hòa bình và ổn định quốc tế. Tổng thư ký LHQ António Guterres ủng hộ thành lập một cơ quan quốc tế toàn cầu để giám sát công nghệ AI.
Không có biên giới
Các nhà ngoại giao và chuyên gia hàng đầu về AI đã trình bày trước Hội đồng Bảo an LHQ những rủi ro và đe dọa của công nghệ này bên cạnh các lợi ích khoa học và xã hội của nó. Họ cho biết vẫn còn nhiều điều chưa biết về AI, ngay cả khi nó đã có một quá trình phát triển thần tốc thời gian qua.
Ngoại trưởng Anh James Cleverly, người chủ trì cuộc họp AI nói trên vì Anh giữ chức chủ tịch luân phiên của Hội đồng Bảo an LHQ trong tháng này, nhận định: “Không quốc gia nào không bị ảnh hưởng bởi AI. AI không có biên giới”. Trong khi đó, ông Guterres cảnh báo AI có thể trở thành công cụ tiếp tay cho tội phạm, khủng bố và những ai có ý định gây ra “cái chết và sự hủy diệt, đau thương rộng khắp và tổn thương tâm lý sâu sắc ở quy mô không thể tưởng tượng được”.
Theo báo New York Times, việc ra mắt ChatGPT vào năm ngoái – công cụ AI tạo sinh có thể giao tiếp bằng ngôn ngữ tự nhiên – đã gióng lên hồi chuông cảnh báo về những thông tin sai lệch và thao túng.
Đại sứ Trung Quốc tại LHQ, ông Trương Quân, mô tả AI là “con dao hai lưỡi”. “AI tốt hay xấu, thiện hay ác phụ thuộc vào cách con người sử dụng và quản lý nó, cũng như phụ thuộc vào cách chúng ta cân bằng sự phát triển khoa học với an ninh” – ông Trương nói, đồng thời kêu gọi “ngăn chặn công nghệ này trở thành một con ngựa bất kham”.
Giáo sư Rebecca Willett, giám đốc AI tại Viện khoa học dữ liệu thuộc ĐH Chicago, cho rằng liên quan đến quản lý AI, điều quan trọng là không được đánh mất sự giám sát của con người với công nghệ này. Bà tin là các hệ thống đó không hoàn toàn tự động và những người thiết kế ra chúng cần phải chịu trách nhiệm.
Nguồn
Cần cơ quan giám sát của LHQ
Tại cuộc họp, ông Jack Clark, người đồng sáng lập công ty nghiên cứu an toàn trí tuệ nhân tạo Anthropic, bày tỏ không tin tưởng vào việc để một số công ty công nghệ lớn đảm bảo an toàn cho những hệ thống mà chúng ta chưa hiểu rõ. Do đó, ông cho rằng các công ty tư nhân không nên là lực lượng sáng tạo và quản lý duy nhất đối với AI. Theo ông, thế giới phải cùng nhau ngăn chặn việc lạm dụng công nghệ này.
Câu hỏi đặt ra là phải quản lý AI thế nào cho thích hợp? Theo Hãng tin Reuters, ông António Guterres đã ủng hộ đề nghị của một số nước về việc thành lập một cơ quan mới của LHQ “để hỗ trợ các nỗ lực tập thể nhằm quản lý công nghệ đặc biệt”.
Theo ông Guterres, cơ quan này nên đóng vai trò điều chỉnh, giám sát và thực thi các quy định về AI, giống như cách làm của các cơ quan giám sát hàng không (Tổ chức Hàng không dân dụng quốc tế – ICAO), khí hậu (Ủy ban Liên chính phủ về biến đổi khí hậu – IPCC) và năng lượng hạt nhân (Cơ quan Năng lượng nguyên tử quốc tế – IAEA). Tuy nhiên, báo New York Times nhận định triển vọng về việc đưa ra nghị quyết ràng buộc về mặt pháp lý liên quan quản lý AI vẫn còn xa vời.
Quản lý AI trong quân sự
Việc quân đội các nước sử dụng vũ khí tự động trên chiến trường hoặc cho mục đích ám sát cũng được nêu lên tại cuộc họp trên của LHQ. Năm 2020, Israel được cho là đã đưa robot AI (điều khiển qua vệ tinh) đến Iran để ám sát nhà khoa học hạt nhân hàng đầu Iran Mohsen Fakhrizadeh. Ông Guterres nói LHQ phải đưa ra một thỏa thuận ràng buộc về mặt pháp lý vào năm 2026 về cấm sử dụng AI trong các vũ khí tự động dùng cho chiến tranh. “Các ứng dụng AI trong quân sự và phi quân sự đều có thể gây ra những hậu quả rất nghiêm trọng đối với hòa bình và an ninh toàn cầu” – ông António Guterres nói.
Nguồn: tuoitre.vn