Dân Việt

ChatGPT bất ngờ bị chê là lười hơn, kém thông minh hơn

Báo Tin tức 15/07/2023 14:46 GMT+7
Mô hình AI mạnh nhất thế giới ChatGPT đã trở nên kém mạnh mẽ hơn. Điều đó khiến những người trong ngành đồn đoán rằng nguyên nhân là do công ty OpenAI đã thiết kế lại hệ thống.
ChatGPT bất ngờ bị chê là lười hơn, kém thông minh hơn - Ảnh 1.

Biểu tượng GPT-4 của Công ty OpenAI. Ảnh: OpenAI/TTXVN

Theo tờ Business Insider, trong những tuần gần đây, người dùng GPT-4 của OpenAI đã phàn nàn về tình trạng hiệu suất suy giảm, một số người nói mô hình này “lười biếng” và kém thông minh hơn so với khả năng suy luận và đưa ra câu trả lời trước đây. GPT-4 là phiên bản thay thế GPT3.5 vốn là hệ thống mô hình ngôn ngữ của ứng dụng ChatGPT.

Người dùng đã bày tỏ sự thất vọng trên Twitter và diễn đàn nhà phát triển của OpenAI về các vấn đề như tính logic yếu, đưa ra nhiều phản hồi sai hơn, không nắm được thông tin mà người dùng cung cấp, gặp rắc rối khi làm theo hướng dẫn, quên thêm dấu ngoặc đơn trong mã phần mềm cơ bản và chỉ nhớ lời nhắc gần đây nhất.

Một người dùng GPT4 để hỗ trợ viết mã trang web của mình nhận xét: “GPT4 hiện tại thật đáng thất vọng. Giống như việc lái một chiếc Ferrari trong một tháng rồi đột nhiên nó biến thành một chiếc xe cũ nát. Tôi không chắc là mình muốn trả tiền cho nó”.

Ông Peter Yang, trưởng nhóm sản phẩm tại Roblox, đã viết trên Twitter rằng mô hình này tạo kết quả đầu ra nhanh hơn nhưng chất lượng kém hơn. Ông nói: “Chỉ là những câu hỏi đơn giản như làm cho văn bản rõ ràng, súc tích hơn và tạo ra ý tưởng. Theo ý kiến của tôi, chất lượng bài viết đã đi xuống”.

Một người dùng khác tên là Frazier MacLeod viết trên Twitter: “Tôi thấy nó lười biếng hơn”. Còn người dùng Christi Kennedy đã viết trên diễn đàn dành cho nhà phát triển của OpenAI rằng GPT-4 đã bắt đầu lặp đi lặp lại các kết quả đầu ra của mã và các thông tin khác. Cô nói: “Nó bị chết não so với trước đây… Nếu bạn thực sự sử dụng ứng dụng này đầy đủ trước đây, bạn sẽ thấy nó rõ ràng là ngu ngốc hơn nhiều”.

Đây là một sự thay đổi khá lớn so với đầu năm nay khi OpenAI đã làm kinh ngạc cả thế giới khi ra mắt ChatGPT và ngành công nghệ đã háo hức chờ đợi GPT-4 ra mắt. ChatGPT ban đầu chạy trên GPT-3 và GPT-3.5. Đây là những mô hình AI lớn, hỗ trợ ChatGPT trả lời các câu hỏi.

GPT-4 có quy mô hơn đã ra mắt vào tháng 3 và nhanh chóng trở thành mô hình phù hợp cho các nhà phát triển và những người trong ngành công nghệ khác. GPT-4 thường được coi là mô hình AI mạnh nhất hiện có và mô hình này đa phương thức, có nghĩa là có thể hiểu được hình ảnh và văn bản nhập vào.

ChatGPT bất ngờ bị chê là lười hơn, kém thông minh hơn - Ảnh 2.

Biểu tượng chatbot ChatGPT của Công ty OpenAl. Ảnh: AFP/TTXVN

Sau lần đầu dùng thử mô hình mới này, một số người đã bị sốc trước hóa đơn sử dụng GPT-4.

Bà Sharon Zhou, Giám đốc điều hành Lamini (một công ty khởi nghiệp giúp các nhà phát triển xây dựng các mô hình ngôn ngữ lớn tùy chỉnh), cho biết mô hình mới tuy chậm nhưng rất chính xác. Tuy nhiên, đó là tình hình của một vài tuần trước. Sau đó, GPT-4 trở nên nhanh hơn, nhưng hiệu suất giảm đi rõ rệt, khiến cộng đồng AI bàn tán và các chuyên gia khác cho rằng có một thay đổi lớn đang diễn ra.

Họ cho biết OpenAI có thể đang tạo ra một số mô hình GPT-4 nhỏ hơn. Các mô hình này sẽ hoạt động tương tự như mô hình lớn nhưng sẽ ít tốn kém hơn khi chạy.

Theo bà Zhou, cách tiếp cận này được gọi là Hỗn hợp Chuyên gia (MOE). Các mô hình chuyên gia nhỏ hơn được đào tạo về các nhiệm vụ và lĩnh vực chủ đề riêng, nghĩa là có thể có một GPT-4 chuyên về sinh học và một GPT-4 chuyên về vật lý, hóa học…

Khi người dùng GPT-4 đặt câu hỏi, hệ thống mới sẽ biết chuyển câu hỏi tới mô hình chuyên gia nào. Hệ thống mới có thể quyết định gửi một câu hỏi tới hai hoặc nhiều mô hình chuyên gia này để đề phòng và sau đó kết hợp các kết quả.

Bà Zhou cho biết ý tưởng này đã xuất hiện được một thời gian và đó là một bước tiếp theo tự nhiên.

Ông Yam Peleg, nhà sáng lập một công ty khởi nghiệp, đã viết trên Twitter rằng OpenAI có thể giảm chi phí bằng cách sử dụng mô hình MOE có 16 chuyên gia.

Theo ông Oren Etzioni, Giám đốc điều hành Viện AI Allen, có hai lý do kỹ thuật chính để sử dụng cách tiếp cận MOE: phản hồi tốt hơn và nhanh hơn, rẻ hơn. Ông nói: “Kết hợp đúng sẽ mang lại cả hai nhưng thường có sự đánh đổi giữa chi phí và chất lượng. Trong trường hợp này, có vẻ như OpenAI đang hy sinh chất lượng để giảm chi phí”.

OpenAI đã viết về cách tiếp cận MOE trong nghiên cứu năm 2022 do Greg Brockman, Chủ tịch OpenAI, làm đồng tác giả. Theo bài viết, ông Brockman nói: “Với cách tiếp cận MOE, chỉ cần sử dụng một phần nhỏ của mạng để tính toán đầu ra cho một đầu vào… Điều này cho phép nhiều tham số hơn mà không làm tăng chi phí tính toán”.

Bà Zhou cho biết tình trạng suy giảm hiệu suất đáng kinh ngạc của GPT-4 trong những tuần gần đây có thể liên quan đến quá trình đào tạo này và do OpenAI tung ra nhóm các mô hình GPT-4 chuyên gia nhỏ hơn nói trên. Bà nói: “Khi người dùng kiểm tra nó, chúng tôi sẽ hỏi rất nhiều câu hỏi khác nhau. Nó sẽ không hoạt động tốt như vậy, nhưng nó đang thu thập dữ liệu từ chúng tôi, nó sẽ cải thiện và học hỏi”.