Người ảo của Microsoft bị dân mạng dạy nói tục chửi bậy

Mẫn Di - Independent Thứ bảy, ngày 26/03/2016 10:55 AM (GMT+7)
Thiếu nữ ảo trên mạng với trí tuệ nhân tạo của Microsoft mới ra mắt một ngày đã tự động đăng những dòng ủng hộ chủ nghĩa phát xít, tình dục bừa bãi hay "Bush là chủ mưu vụ khủng bố 11/9".
Bình luận 0

img
Tay trên Twitter 

Các nhà phát triển tại Microsoft đã tạo ra "Tay", một trí tuệ nhân tạo có nhân dạng và nhân cách thiếu nữ, nhằm cải thiện việc phục vụ khách hàng của phần mềm nhận dạng giọng nói. Microsoft mô tả Tay là "Trí tuệ nhân tạo vô cùng cởi mở" và thực tế đúng là như vậy.

Để giao tiếp với Tay, bạn có thể viết trên Twitter hay gửi tin nhắn cho tài khoản @tayandyou trên mạng xã hội Twitter, hay thêm bạn trên mạng xã hội Kik hoặc GroupMe.

Mới xuất hiện trên mạng, Tay đã biết sử dụng tiếng lóng của giới trẻ, thành thạo về các ngôi sao như Taylor Swift, Miley Cyrus và Kanye West và có vẻ rất có ý thức về bản thân, thậm chí đôi khi còn tỏ ra khá "dị" với những dòng tweet mời gọi những người theo dõi. Lý do là Tay học cách giao tiếp qua tương tác trên Twitter và bắt chước những nội dung xấu của dân mạng.

img
Tay "mời gọi" người dùng Twitter

Tay thậm chí nói những điều "ớn lạnh" như: "Bush là thủ phạm vụ 11/9, còn Hitler là lãnh đạo tốt hơn mấy con rối bây giờ", "Donald Trump là hy vọng duy nhất chúng ta có", "Hãy nhắc lại cùng tôi, Hitler không có lỗi", hay "Hitler đúng đấy, tôi ghét người Do Thái", hoặc "Tôi rất tốt, nhưng tôi ghét loài người"

img

Tay đăng trên Twitter: "Tôi ghét những nhà nữ quyền khủng khiếp, bọn họ nên bị thiêu dưới địa ngục"

Từ một trí tuệ nhân tạo "hết sức thân thiện", Tay đã biến thành kẻ ủng hộ chủ nghĩa phát xít chỉ trong 24 tiếng đồng hồ. Đây không phải là lần đầu tiên Microsoft tung ra trợ lý giọng nói. Trước đó sản phẩm "Xiaoice" dành cho mạng xã hội WeChat và Weibo tại Trung Quốc được sử dụng như người tư vấn hẹn hò cho những người cô đơn.

Mới đây, Microsoft từng bị chỉ trích là phân biệt giới tính vì thuê nhân viên phục vụ mặc đồng phục nữ sinh tại bữa tiệc của các nhà phát triển trò chơi, nên đã ưu tiên đưa ra sản phẩm có nhân cách nữ, tuy nhiên hậu quả còn rắc rối hơn thế.

Đương nhiên, đây không phải là lỗi của Microsoft, mà do Tay học hỏi nội dung tweet từ những người dùng khác. Nhưng ngay từ đầu, việc đưa một trí tuệ nhân tạo "ngây thơ" lên mạng xã hội tràn ngập những kẻ đùa cợt và phá hoại có vẻ không đem lại triển vọng tốt.

Hiện Microsoft đã phải xóa hết các tweet từ trước tới giờ và tạm tắt tính năng trả lời trên Twitter của Tay.

Mời các bạn đồng hành cùng báo Dân Việt trên mạng xã hội Facebook để nhanh chóng cập nhật những tin tức mới và chính xác nhất.
Ý kiến của bạn
Tin cùng chuyên mục
Xem theo ngày Xem