ChatGPT trả lời chưa chính xác và phản hồi của Microsoft

Huỳnh Dũng Thứ hai, ngày 20/03/2023 12:37 PM (GMT+7)
Các công nghệ AI hiện tại như ChatGPT thường có thể tạo ra phản hồi không chính xác và một số nhà công nghệ đang băn khoăn về khả năng mọi người có thể đặt quá nhiều niềm tin vào phần mềm này. Nhưng Microsoft đang quảng cáo công nghệ này là “sai một cách hữu ích”.
Bình luận 0

Nhờ những tiến bộ gần đây về trí tuệ nhân tạo (AI), các công cụ mới như ChatGPT đang khiến người tiêu dùng kinh ngạc về khả năng tạo ra bài viết hấp dẫn dựa trên các truy vấn và lời nhắc của mọi người. Mặc dù các công cụ hỗ trợ AI này đã trở nên tốt hơn nhiều trong việc tạo ra các phản hồi sáng tạo và đôi khi hài hước, nhưng chúng thường chứa thông tin không chính xác.

Microsoft cố gắng biện minh cho xu hướng đưa ra câu trả lời sai của AI bằng cách nói rằng chúng “sai một cách hữu ích”. Ảnh: @AFP.

Microsoft cố gắng biện minh cho xu hướng đưa ra câu trả lời sai của AI bằng cách nói rằng chúng “sai một cách hữu ích”. Ảnh: @AFP.

Chẳng hạn, vào tháng 2 khi Microsoft ra mắt công cụ trò chuyện Bing, được xây dựng bằng công nghệ GPT-4 do OpenAI do Microsoft hậu thuẫn tạo ra, mọi người nhận thấy rằng công cụ này đưa ra câu trả lời sai trong bản demo liên quan đến báo cáo thu nhập tài chính. Giống như các công cụ ngôn ngữ AI khác, bao gồm cả phần mềm tương tự của Google, tính năng trò chuyện Bing đôi khi có thể đưa ra những sự thật giả mạo mà người dùng có thể tin là sự thật, một hiện tượng mà các nhà nghiên cứu gọi là “ảo giác”.

“Bing AI có một số câu trả lời hoàn toàn sai trong bản demo của họ. Nhưng không ai để ý,” nhà nghiên cứu tìm kiếm độc lập Dmitri Brereton viết trong một bài đăng trên Substack. “Thay vào đó, mọi người nhảy cẫng lên chỉ chú ý vào sự cường điệu quá mức của Bing”.

Brereton còn xác định các vấn đề thực tế có thể xảy ra trong bản demo của Microsoft trong các phản hồi về thông số kỹ thuật của máy hút bụi và kế hoạch du lịch tới Mexico bên cạnh các lỗi tài chính. Anh ấy nói với CNBC rằng ban đầu anh ấy không tìm kiếm lỗi và chỉ phát hiện ra chúng khi anh ấy xem xét kỹ hơn để viết một bài so sánh về các công bố AI của Microsoft và Google.

Những vấn đề với sự thật này đã không làm chậm cuộc đua AI giữa hai gã khổng lồ công nghệ này.

Vào tuần trước, Google đã thông báo rằng họ sẽ đưa công nghệ trò chuyện được hỗ trợ bởi AI vào Gmail và Google Docs, cho phép nó giúp soạn email hoặc tài liệu. Giữa tuần trước, Microsoft cho biết các ứng dụng kinh doanh phổ biến của họ như Word và Excel sẽ sớm đi kèm với công nghệ giống như ChatGPT có tên là Copilot.

Các công nghệ AI hiện tại như ChatGPT thường có thể tạo ra phản hồi không chính xác và một số nhà công nghệ đang băn khoăn về khả năng mọi người có thể đặt quá nhiều niềm tin vào phần mềm này. Nhưng Microsoft đang quảng cáo công nghệ này là “sai một cách hữu ích”. Ảnh: @AFP.

Các công nghệ AI hiện tại như ChatGPT thường có thể tạo ra phản hồi không chính xác và một số nhà công nghệ đang băn khoăn về khả năng mọi người có thể đặt quá nhiều niềm tin vào phần mềm này. Nhưng Microsoft đang quảng cáo công nghệ này là “sai một cách hữu ích”. Ảnh: @AFP.

Nhưng lần này, Microsoft đang quảng cáo công nghệ này là “sai một cách hữu ích”. Trong một bài thuyết trình trực tuyến về các tính năng Copilot mới, các giám đốc điều hành của Microsoft đã đưa ra xu hướng tạo ra các phản hồi không chính xác của phần mềm, nhưng cho rằng đó là một thứ có thể hữu ích. Miễn là mọi người nhận ra rằng câu trả lời của Copilot có thể cẩu thả với sự thật, họ có thể chỉnh sửa những điểm không chính xác và hoặc gửi email phản hồi chỉnh sửa về hệ thống.

Chẳng hạn, nếu một người muốn tạo một email chúc mừng sinh nhật một thành viên trong gia đình, Copilot vẫn có thể hữu ích ngay cả khi nó hiển thị sai ngày sinh. Theo quan điểm của Microsoft, thực tế là công cụ tạo văn bản đã tiết kiệm thời gian cho một người và do đó rất hữu ích. Mọi người chỉ cần cẩn thận hơn, chỉnh sửa một chúng và đảm bảo rằng văn bản cuối không có bất kỳ lỗi nào.

Nhưng các nhà nghiên cứu có thể không đồng ý. Thật vậy, một số nhà công nghệ như Noah Giansiracusa và Gary Marcus đã bày tỏ lo ngại rằng mọi người có thể đặt quá nhiều niềm tin vào AI thời hiện đại, quan tâm đến các công cụ tư vấn như ChatGPT khi họ đặt câu hỏi về sức khỏe, tài chính và các chủ đề rủi ro cao khác.

“Các lối phát triển đầy độc tính của ChatGPT có thể dễ dàng được kẻ xấu sử dụng nó cho mục đích xấu và không rõ Copilot đáng tin cậy như thế nào trong thực tế”, Gary Marcus nói.

Các lối phát triển đầy độc tính của ChatGPT có thể dễ dàng được kẻ xấu sử dụng nó cho mục đích xấu. Ảnh: @AFP.

Các lối phát triển đầy độc tính của ChatGPT có thể dễ dàng được kẻ xấu sử dụng nó cho mục đích xấu. Ảnh: @AFP.

Còn nhà khoa học trưởng và đồng nghiệp kỹ thuật của Microsoft, Jaime Teevan nói rằng khi Copilot “làm sai hoặc có thành kiến hoặc bị lạm dụng”, Microsoft sẽ có “các biện pháp giảm thiểu”. Ngoài ra, Microsoft sẽ chỉ thử nghiệm phần mềm với 20 khách hàng doanh nghiệp lúc đầu để có thể khám phá cách nó hoạt động trong thế giới thực, cô giải thích.

“Chúng tôi sẽ phạm sai lầm, nhưng khi mắc lỗi, chúng tôi sẽ nhanh chóng giải quyết chúng”, Teevan nói.

Cổ phần kinh doanh quá cao khiến Microsoft không thể bỏ qua sự nhiệt tình đối với các công nghệ AI sáng tạo như ChatGPT. Thách thức đối với công ty là kết hợp công nghệ đó sao cho nó không tạo ra sự nghi ngờ của công chúng đối với phần mềm hoặc dẫn đến những thảm họa lớn về quan hệ công chúng.

“Tôi đã nghiên cứu AI trong nhiều thập kỷ và tôi cảm thấy có trách nhiệm to lớn với công cụ mới mạnh mẽ này”, Teevan nói. “Chúng tôi có trách nhiệm đưa nó đến tay mọi người và thực hiện điều đó một cách đúng đắn nhất có thể”.

Mời các bạn đồng hành cùng báo Dân Việt trên mạng xã hội Facebook để nhanh chóng cập nhật những tin tức mới và chính xác nhất.
Tin cùng chuyên mục
Xem theo ngày Xem