Theo đó, OpenAI do Microsoft Corp hậu thuẫn đã đưa ChatGPT vào chế độ ngoại tuyến ở Ý, sau khi DPA tuần trước tạm thời hạn chế nó, và bắt đầu điều tra về một nghi ngờ vi phạm các quy tắc về quyền riêng tư.
Cơ quan này tuần trước đã cáo buộc OpenAI không kiểm tra tuổi của người dùng ChatGPT, và "không có bất kỳ cơ sở pháp lý nào biện minh cho việc thu thập và lưu trữ dữ liệu cá nhân khổng lồ". Cơ quan bảo vệ dữ liệu quốc gia (DPA) của Ý còn trích dẫn một vụ vi phạm dữ liệu tại OpenAI cho phép người dùng xem tiêu đề của các cuộc trò chuyện mà người dùng khác đang thực hiện với chatbot.
DPA cũng đánh dấu những lo lắng về việc thiếu giới hạn độ tuổi trên ChatGPT, và cách chatbot có thể cung cấp thông tin thực tế không chính xác trong các phản hồi của nó. Và OpenAI, được hỗ trợ bởi Microsoft, có nguy cơ bị phạt 20 triệu euro (21,8 triệu USD), tương đương 4% doanh thu hàng năm trên toàn cầu, nếu không đưa ra các biện pháp khắc phục tình hình trong 20 ngày.
Trong khi một số trường công lập và đại học trên khắp thế giới đã chặn ChatGPT khỏi mạng cục bộ của họ, vì lo ngại sinh viên đạo văn, thì hành động của Ý là “sự hạn chế quy mô quốc gia đầu tiên đối với nền tảng AI quá đổi cường điều gây sốt”, Alp Toker, giám đốc nhóm vận động thuộc NetBlocks- chuyên theo dõi truy cập internet trên toàn thế giới cho biết trong một tuyên bố.
Cho đến hôm 6/4, DPA cho biết họ không có ý định cản trở việc phát triển AI nhưng nhắc lại tầm quan trọng của việc tôn trọng các quy tắc nhằm bảo vệ dữ liệu cá nhân của công dân Ý và châu Âu.
DPA cho biết trong một cuộc họp video vào cuối ngày 5/4 có sự tham dự của Giám đốc điều hành Sam Altman, OpenAI cam kết sẽ minh bạch hơn về cách xử lý dữ liệu người dùng, và xác minh tuổi của người dùng. Nhưng những biện pháp khắc phục đã không được công khai chi tiết.
Công ty cho biết họ sẽ gửi cho DPA một tài liệu liên quan đến các biện pháp đáp ứng các yêu cầu của họ. Cơ quan quản lý dữ liệu cho biết, họ sẽ đánh giá các đề xuất của OpenAI. Một nguồn thạo tin cho biết có thể sẽ mất vài ngày để đánh giá nội dung bức thư đề xuất biện pháp này.
Phía OpenAI nhận định: “Chúng tôi cũng tin rằng, quy định về AI là cần thiết — vì vậy chúng tôi mong muốn được hợp tác chặt chẽ với DPA về cách hệ thống của chúng tôi được xây dựng và sử dụng”.
Gần đây, công ty OpenAI cũng đã xuất bản một bài đăng trên blog, có tiêu đề "Cách tiếp cận của chúng tôi đối với sự an toàn của AI", cho biết họ đang làm việc để phát triển "các chính sách sắc thái chống lại hành vi gây rủi ro thực sự cho mọi người”. Để phản hồi rõ ràng về những lo ngại, OpenAI đã xuất bản trên bài đăng phác thảo cách tiếp cận của mình đối với sự an toàn của AI. Công ty cho biết họ làm việc để xóa thông tin cá nhân khỏi dữ liệu đào tạo nếu khả thi, tinh chỉnh các mô hình của mình để từ chối yêu cầu cung cấp thông tin cá nhân của các cá nhân, và hành động theo yêu cầu xóa thông tin cá nhân khỏi hệ thống của mình.
"Chúng tôi không sử dụng dữ liệu để bán dịch vụ, quảng cáo hoặc xây dựng hồ sơ của mọi người", công ty cho biết. "Chúng tôi sử dụng dữ liệu để làm cho các mô hình của chúng tôi trở nên hữu ích hơn cho mọi người. Chẳng hạn, ChatGPT cải thiện bằng cách đào tạo thêm về các cuộc hội thoại mà mọi người có với nó”.
"Mặc dù một số dữ liệu đào tạo của chúng tôi bao gồm thông tin cá nhân có sẵn trên internet công cộng, nhưng chúng tôi muốn các mô hình của mình tìm hiểu về thế giới chứ không phải các cá nhân riêng tư".
Có thể thấy, lệnh cấm của Ý đã thu hút sự quan tâm của các cơ quan quản lý quyền riêng tư khác ở châu Âu, những cơ quan đang nghiên cứu liệu có cần các biện pháp khắc nghiệt hơn đối với chatbot hay không, và liệu có nên phối hợp các hành động đó hay không.
Vào tháng 2, DPA đã cấm công ty trò chuyện AI Replika sử dụng dữ liệu cá nhân của người dùng Ý, với lý do rủi ro đối với trẻ vị thành niên và những người dễ bị tổn thương về mặt cảm xúc.
Cái gọi là công nghệ chatbot AI tổng quát như ChatGPT được “đào tạo” trên kho dữ liệu khổng lồ, bao gồm sách kỹ thuật số và bài viết trực tuyến, đồng thời có thể tạo văn bản bắt chước phong cách viết của con người .
Các hệ thống này đã tạo ra tiếng vang trong thế giới công nghệ và nhiều hơn thế nữa, nhưng chúng cũng làm dấy lên nỗi sợ hãi giữa các quan chức, cơ quan quản lý và thậm chí cả các nhà khoa học máy tính và các nhà lãnh đạo ngành công nghệ về những rủi ro đạo đức và xã hội có thể xảy ra.
Các cơ quan quản lý khác ở châu Âu và các nơi khác đã bắt đầu chú ý hơn sau hành động của Ý. Ủy ban bảo vệ dữ liệu của Ireland cho biết họ “đang theo dõi cơ quan quản lý của Ý để hiểu cơ sở cho hành động của họ và chúng tôi sẽ phối hợp với tất cả các Cơ quan bảo vệ dữ liệu của EU liên quan đến vấn đề này”.
Còn Cơ quan quản lý quyền riêng tư dữ liệu của Pháp, CNIL, cho biết họ đang điều tra sau khi nhận được hai khiếu nại về ChatGPT. Ủy viên quyền riêng tư của Canada cũng đã mở một cuộc điều tra về OpenAI sau khi nhận được khiếu nại về việc “thu thập, sử dụng và tiết lộ thông tin cá nhân mà không có sự đồng ý” bị nghi ngờ.
Trong một bài đăng trên blog tuần này, Văn phòng Ủy viên Thông tin Vương quốc Anh đã cảnh báo rằng “các tổ chức đang phát triển hoặc sử dụng AI tổng quát nên xem xét nghĩa vụ bảo vệ dữ liệu của họ ngay từ đầu” và thiết kế các hệ thống có bảo vệ dữ liệu như một mặc định. “Đây không phải là tùy chọn — nếu bạn đang xử lý dữ liệu cá nhân, thì đó phải tuân theo luật”, văn phòng này cho biết.
Huỳnh Dũng- Theo Reuters/Apnews