Samsung cấm sử dụng các công cụ AI tổng quát như ChatGPT sau vụ rò rỉ dữ liệu nội bộ
Samsung cấm sử dụng các công cụ AI tổng quát như ChatGPT sau vụ rò rỉ dữ liệu nội bộ
Huỳnh Dũng
Thứ bảy, ngày 06/05/2023 09:50 AM (GMT+7)
Samsung đang hạn chế sử dụng ChatGPT cho nhân viên, sau khi phát hiện ra dịch vụ đó đang bị lạm dụng. Họ yêu cầu nhân viên đề phòng khi sử dụng ChatGPT và các sản phẩm khác, khuyên nhân viên không nhập bất kỳ thông tin cá nhân hoặc thông tin nào liên quan đến công ty vào dịch vụ này.
Cụ thể, trong động thái mới nhất, Samsung đang hạn chế việc sử dụng cái gọi là công cụ trí tuệ nhân tạo tổng quát như ChatGPT cho nhân viên, sau khi công ty phát hiện ra các dịch vụ đó đang bị lạm dụng. Gã khổng lồ công nghệ Hàn Quốc đã xác nhận với đài CNBC rằng, họ đang tạm thời hạn chế việc sử dụng chatbot AI ChatGPT thông qua máy tính, máy tính bảng và điện thoại, cũng như các thiết bị thuộc sở hữu của công ty chạy trên mạng nội bộ.
Lệnh cấm sẽ không chỉ bao gồm ChatGPT mà cả các dịch vụ sử dụng công nghệ như Bing của Microsoft, cũng như các dịch vụ AI tổng quát cạnh tranh như Bard của Google. Bởi một trong những vấn đề mà Samsung lưu ý là rất khó “truy xuất và xóa” dữ liệu trên các máy chủ bên ngoài và dữ liệu được truyền đến các công cụ AI như vậy có thể bị tiết lộ cho những người dùng khác.
Nhân viên của một trong những bộ phận lớn nhất của Samsung đã được thông báo về động thái này trong một bản ghi nhớ nội bộ, sau khi có trường hợp lạm dụng công nghệ, khi một số nhân viên đã tải mã lập trình nhạy cảm lên ChatGPT.
Người phát ngôn của Samsung nói với TechCrunch: “Công ty đang xem xét các biện pháp nhằm tạo ra một môi trường an toàn để sử dụng AI tổng quát một cách an toàn nhằm nâng cao năng suất và hiệu quả của nhân viên. Tuy nhiên, cho đến khi các biện pháp này sẵn sàng, chúng tôi tạm thời hạn chế việc sử dụng AI tổng quát thông qua các thiết bị của công ty”.
Theo một bản ghi nhớ mà Bloomberg đã xem xét, thì hạn chế này sẽ là tạm thời, kéo dài cho đến khi công ty xây dựng “các biện pháp bảo mật để tạo ra một môi trường an toàn để sử dụng AI sáng tạo một cách an toàn, nhằm nâng cao năng suất và hiệu quả của nhân viên”.
Được biết, ChatGPT là một chatbot AI lan truyền được đào tạo trên lượng dữ liệu khổng lồ và có thể tạo phản hồi cho các truy vấn của người dùng. Nó là một dạng của cái gọi là AI tổng quát.
Samsung chưa có sản phẩm AI tổng hợp của riêng mình. ChatGPT được phát triển bởi công ty OpenAI của Mỹ, được hỗ trợ bởi Microsoft trong khi các sản phẩm AI tổng quát khác cũng bao gồm Bard của Google. Vì vậy, việc nhập dữ liệu nhạy cảm của công ty vào các dịch vụ thuộc sở hữu nước ngoài này có thể là mối lo ngại đối với các công ty lo lắng về việc rò rỉ thông tin quan trọng.
Samsung yêu cầu nhân viên đề phòng khi sử dụng ChatGPT và các sản phẩm tương tự khác, đồng thời khuyên nhân viên không nhập bất kỳ thông tin cá nhân hoặc thông tin nào liên quan đến công ty vào các dịch vụ kiểu như thế này.
Trong một cuộc khảo sát toàn công ty Samsung được thực hiện vào tháng trước, 65% những người trả lời cho biết, họ lo ngại về rủi ro bảo mật khi sử dụng các dịch vụ AI tổng quát như ChatGPT.
Thực tế, Samsung không phải là công ty duy nhất hạn chế sử dụng công nghệ này. Ngân hàng đầu tư Mỹ JPMorgan được cho là đã hạn chế sử dụng ChatGPT trong đội ngũ nhân viên vào đầu năm nay. Và Amazon năm nay đã cảnh báo nhân viên không tải thông tin bí mật, bao gồm cả mã lập trình của công ty lên ChatGPT.
Các công ty khác thì đang đánh giá các cách thức mà các khả năng AI tổng quát có thể được sử dụng trong hoạt động kinh doanh của họ. Ví dụ, ChatGPT có thể giúp các kỹ sư tạo mã máy tính để tăng tốc các tác vụ của họ. Nhà phát triển phần mềm tại Goldman Sachs đã và đang sử dụng AI tổng quát để giúp tạo mã.
Ở một góc độ khác, bất chấp những hạn chế mới nhất, Samsung đang tìm cách sử dụng trí tuệ nhân tạo AI một cách an toàn để nâng cao năng suất và hiệu quả của nhân viên.
Tương tự như câu chuyện của Samsung, gần đây, theo một báo cáo từ Team8, một công ty liên doanh có trụ sở tại Israel, các công ty sử dụng các công cụ trí tuệ nhân tạo thế hệ như ChatGPT có thể gây nguy hiểm cho thông tin khách hàng và bí mật thương mại.
Team8 lập luận rằng, việc áp dụng rộng rãi các công cụ trò chuyện chatbot AI mới có thể khiến các công ty dễ bị rò rỉ dữ liệu và khởi phát các vụ kiện cáo. Cũng có những lo ngại rằng, thông tin bí mật được đưa vào các chatbot hiện có thể được sử dụng bởi các công ty AI trong tương lai.
"Việc sử dụng chatbot AI doanh nghiệp có thể dẫn đến việc đối tượng bên thứ ba dễ truy cập và xử lý thông tin nhạy cảm, sở hữu trí tuệ, mã nguồn, bí mật thương mại và dữ liệu khác, thông qua dữ liệu đầu vào người dùng đặt truy vấn trực tiếp hoặc tích hợp API, bao gồm thông tin khách hàng hoặc thông tin cá nhân và thông tin bí mật", báo cáo của Team8 cho biết. Nếu các công cụ này được cung cấp dữ liệu bí mật hoặc riêng tư ở đầu vào công cụ, thì sẽ rất khó để xóa thông tin đó, báo cáo mới cảnh báo rõ.
Vui lòng nhập nội dung bình luận.