Haugen đã xuất hiện tại một sự kiện ở London vào tuần trước cùng với Daniel Motaung, một cựu điều hành viên của. Tại sự kiện này, họ cùng chia sẻ về vấn đề công nghệ AI của Facebook.
Vốn dĩ, Meta- công ty mẹ của Facebook đã ca ngợi hiệu quả các hệ thống AI của mình trong quá khứ. Giám đốc điều hành Mark Zuckerberg phát biểu trước Quốc hội Mỹ vào tháng 3 năm 2021 rằng, công ty dựa vào AI để loại bỏ hơn 95% "nội dung lời nói căm thù". Vào tháng 2 năm nay, Zuckerberg cho biết công ty muốn đưa AI của mình lên một "cấp độ con người" của trí thông minh. Nhưng theo Haugen và Motaung, đây là một màn khói che khuất giả tạo mà phía công ty đề ra để làm dịu lòng công chúng, và biện minh cho nổ lực giải quyết thực trạng của mình.
Haugen cho biết, AI vào thời điểm hiện tại không đủ thông minh để giải thích các sắc thái trong lời nói của con người. Cô cho biết, việc sử dụng AI để kiểm duyệt có nghĩa là luôn có sự cân bằng giữa việc có một thuật toán hống hách loại bỏ nội dung không vi phạm chính sách nội dung, và có một thuật toán bỏ sót các trường hợp của nội dung đó.
"Những AI đó chỉ có thể hoạt động chính xác theo kiểu như vậy", cô nói. "Nó mang tính chất của học máy hơn, bởi vì nó không thông minh nên khó mà bao quát khái niệm Trí tuệ thông minh nhân tạo. Nó chỉ là học cách suy luận, suy luận thống kê từ dữ liệu được đưa vào".
Những lời bình luận của mới của người tố giác Frances Haugen vang lên tiếp nối vấn đề sau khi một cựu nhân viên của Facebook, người đã nói trong thư chia tay nội bộ vào cuối năm 2020: "AI sẽ không cứu được chúng ta".
Thậm chí, Haugen tuyên bố sự tập trung của Meta vào AI một phần là do mong muốn cắt giảm chi phí.
"Facebook luôn cố gắng ... có nhiều việc hơn được thực hiện bởi máy tính, AI và ít được thực hiện bởi con người hơn", Haugen nói và cho biết điều này là do việc sử dụng người kiểm duyệt đắt hơn so với việc sử dụng các hệ thống tự động. Khi hệ thống AI của Facebook không thể đưa ra phán đoán về một phần nội dung, thì người kiểm duyệt sẽ phụ thuộc vào việc xem xét nó.
Motaung, người từng làm điều hành viên Facebook theo hợp đồng ở Nairobi cho đến khi bị sa thải vào năm 2019, cho biết anh không tin các hệ thống AI có thể làm công việc tương tự như con người. Motaung nói: "Yếu tố đạo đức, yếu tố đạo đức, đi vào - và trí tuệ nhân tạo không thể làm được điều đó".
Đối với những người điều hành như Motaung, công việc có thể ảnh hưởng nghiêm trọng đến sức khỏe tinh thần của họ. Motaung cho biết trong vụ kiện Meta của mình rằng làm việc với tư cách là người kiểm duyệt và xem đồ họa, nội dung gây rối cả ngày dẫn đến việc anh ta bị Rối loạn căng thẳng sau sang chấn (PTSD). Motaung cho biết công việc khiến anh ấy bị sa sút đi rất nhiều.
Trong sự kiện mới nhất, cả Motaung và Haugen đều cho biết Meta có thể mang lại những thay đổi để làm cho công việc của những người kiểm duyệt nội dung của họ an toàn hơn.
"Thậm chí nói: 'Này, bạn đang nhìn những thứ khiến bạn bị tổn thương mỗi ngày. Chúng tôi sẽ trả tiền cho bạn đủ một tuần, nhưng bạn chỉ phải đến cách ngày ... đó là một sự can thiệp thực sự", Haugen nói.
"Điều đó sẽ làm giảm hẳn tác hại, và họ chọn không chi tiêu ngay cả số tiền nhỏ đó", cô nói thêm.
Motaung và Haugen đều cho biết Meta giao công việc kiểm duyệt của mình cho các nhà thầu để hạn chế trách nhiệm pháp lý. Khoảng 15.000 người trên toàn cầu làm việc với tư cách là người kiểm duyệt Facebook và Instagram, một báo cáo năm 2020 từ Trung tâm Kinh doanh và Nhân quyền Unversity Stern ở New York cho biết. Hầu hết được tuyển dụng bởi các nhà thầu bên thứ ba.
Trong một tin nhắn cho Mark Zuckerberg, Motaung nói rằng anh ấy muốn biết liệu Zuckerberg có can thiệp để giúp đỡ những người kiểm duyệt hay không. "Hãy đi và chăm sóc nó. Hãy làm những gì đúng đắn", Motaung nói.
Meta đã không phản hồi ngay lập tức khi được Insider liên hệ để đưa ra bình luận về các cáo buộc này.
Cũng vào đầu tháng này, vào ngày 5/6, người tố cáo Facebook Frances Haugen nói Meta không thể phục hồi cho đến khi Mark Zuckerberg từ chức. Haugen đã lấy hàng chục nghìn trang tài liệu cho thấy gã khổng lồ truyền thông xã hội biết sản phẩm của họ đang gây tổn hại đến sức khỏe tinh thần của thanh thiếu niên, thúc đẩy bạo lực sắc tộc ở các nước như Ethiopia, và đã không thể kiềm chế thông tin sai lệch trước cuộc bạo loạn ở Washington DC vào ngày 6 tháng 1 năm ngoái.
Cô ấy nói với Bloomberg rằng, Zuckerberg "thực sự tin rằng Facebook chỉ là một tấm gương phản chiếu" của thực tế. Haugen nói thêm rằng, không giống như hầu hết các công ty đại chúng khác, Zuckerberg nắm giữ 56% quyền biểu quyết. "Không ai vượt mặt được, vì Mark Zuckerberg có thể kiểm soát Facebook ngay bây giờ".
Khi được Emma Barnett của Bloomberg hỏi liệu Zuckerberg có nên đi hay không, cô ấy nói: "Tôi nghĩ rằng công ty sẽ không thể phục hồi miễn là anh ấy còn là người lãnh đạo nó".
Haugen nói với rằng nội dung cực đoan được phân phối nhiều nhất ở "những nơi đa dạng về ngôn ngữ", điều đó có nghĩa là họ đang sử dụng "phiên bản nguy hiểm nhất là Facebook" và để lại chỗ cho lời nói căm thù có mầm mống để phát triển và lan tỏa.