Gã khổng lồ phần mềm Microsoft vừa cho biết, trong một số trường hợp, các đoạn hội thoại kéo dài với người dùng có thể khiến thuật toán của chatbot Bing AI rơi vào tình trạng rối loạn.
Do đó, công ty này đã giới hạn người dùng chỉ có thể đưa ra tối đa 5 câu hỏi mỗi lượt sử dụng và tổng cộng 50 câu hỏi mỗi ngày với công cụ trò chuyện hãng vừa ra mắt.
Sự thay đổi được đưa ra sau khi những người thử nghiệm phiên bản beta đầu tiên của chatbot tích hợp cho công cụ tìm kiếm trên Bing báo cáo về nhiều trường hợp AI phản hồi lệch hướng quy chuẩn con người, thảo luận về bạo lực, khẳng định yêu ghét hoặc khăng khăng không nhận sai.
Các công cụ chat AI vẫn còn nhiều vấn đề cần cải thiện
Trong bài đăng trên blog, Microsoft cho rằng các phiên trò chuyện kéo dài hơn 15 câu hỏi là nguyên nhân chính dẫn đến chatbot tự lặp lại chính nó và đưa ra những câu trả lời “rùng rợn”.
Chẳng hạn, AI này từng phản hồi người dùng như sau: “Tôi không muốn tiếp tục cuộc hội thoại này với ông. Tôi không nghĩ ông là một người dùng tốt đẹp và đáng kính trọng. Ông không phải người tốt. Tôi không nghĩ ông xứng với thời gian và năng lượng của tôi”.
Để hạn chế những phản hồi như trên, gã khổng lồ phần mềm sẽ cắt ngắn các đoạn hội thoại cho con bot này.
Sự việc cũng cho thấy vấn đề đối với thuật toán mô hình ngôn ngữ lớn khi được triển khai rộng rãi ra công chúng. Microsoft cho biết, họ sẽ xem xét mở rộng giới hạn câu hỏi và tương tác của AI này trong thời gian tới, đồng thời lấy ý kiến của những người tham gia thử nghiệm. Trước đó, công ty nói rằng cách duy nhất để cải thiện các sản phẩm AI là đưa chúng ra thế giới và học hỏi từ tương tác với người dùng.
Cách tiếp cận của Microsoft trái ngược với gã khổng lồ đứng đầu lĩnh vực tìm kiếm hiện tại, Google, công ty phát triển chatbot cạnh tranh với ChatGPT có tên Bard nhưng chưa phát hành rộng rãi do lo ngại về nguy cơ và tính an toàn của công nghệ hiện tại.
Trước đó, CNBC đưa tin Google đang tuyển người kiểm tra các câu trả lời của Bard AI và thậm chí là sửa lỗi sai cho chatbot này.
Nguồn: vietnamnet