Meta vừa công bố mô hình trí tuệ nhân tạo mới nhất của mình, Llama 4, với tuyên bố đáng chú ý rằng nó ít thiên vị về mặt chính trị hơn so với các phiên bản tiền nhiệm. Công ty cho biết đã đạt được điều này một phần bằng cách cho phép mô hình trả lời nhiều câu hỏi gây chia rẽ chính trị hơn. Meta còn nhấn mạnh rằng Llama 4 hiện có thể so sánh thuận lợi với sự thiếu khuynh hướng chính trị của Grok, chatbot "không woke" từ startup xAI của Elon Musk. Mục tiêu được Meta nêu rõ là loại bỏ sự thiên vị khỏi các mô hình AI, đảm bảo Llama có thể hiểu và trình bày cả hai mặt của một vấn đề gây tranh cãi, phản hồi nhiều quan điểm khác nhau mà không phán xét hay thiên vị. Tuy nhiên, tuyên bố này làm dấy lên lo ngại từ những người hoài nghi về khả năng kiểm soát luồng thông tin của các công ty lớn phát triển mô hình AI. Ai kiểm soát các mô hình AI về cơ bản có thể kiểm soát thông tin mà mọi người nhận được, điều chỉnh nó theo ý muốn. Điều này không mới; các nền tảng internet từ lâu đã sử dụng thuật toán để quyết định nội dung nào được hiển thị. Đây cũng là lý do Meta vẫn bị phe bảo thủ chỉ trích, nhiều người cho rằng công ty đã đàn áp các quan điểm nghiêng về cánh hữu, mặc dù thực tế nội dung bảo thủ trong lịch sử lại phổ biến hơn nhiều trên Facebook. CEO Mark Zuckerberg dường như đang nỗ lực lấy lòng chính quyền nhằm giảm bớt các rắc rối pháp lý tiềm ẩn. Trong bài đăng trên blog của mình, Meta đặc biệt nhấn mạnh rằng những thay đổi đối với Llama 4 nhằm mục đích làm cho mô hình bớt 'tự do' (liberal) hơn. Họ viết: “Ai cũng biết rằng tất cả các LLM hàng đầu đều gặp vấn đề về thiên vị—cụ thể, chúng có xu hướng nghiêng về cánh tả trong lịch sử đối với các chủ đề chính trị và xã hội gây tranh cãi. Điều này là do các loại dữ liệu đào tạo có sẵn trên internet.” Dù vậy, Meta không tiết lộ dữ liệu cụ thể được sử dụng để đào tạo Llama 4, nhưng việc các công ty mô hình lớn, bao gồm cả Meta, dựa vào sách lậu và thu thập dữ liệu trang web mà không được phép là điều khá phổ biến. Một trong những vấn đề của việc tối ưu hóa cho “sự cân bằng” là nó có thể tạo ra sự tương đương sai lệch và tạo uy tín cho các lập luận thiếu thiện chí không dựa trên dữ liệu khoa học, thực nghiệm. Được biết đến với thuật ngữ “bothsidesism” (chủ nghĩa hai mặt), một số người trong giới truyền thông cảm thấy có trách nhiệm phải đưa ra trọng lượng ngang nhau cho các quan điểm đối lập, ngay cả khi một bên đưa ra lập luận dựa trên dữ liệu và bên kia đang lan truyền các thuyết âm mưu. Ví dụ, một nhóm như QAnon, dù thú vị, chỉ đại diện cho một phong trào bên lề không phản ánh quan điểm của đa số người Mỹ, nhưng có lẽ đã được dành nhiều thời lượng phát sóng hơn mức đáng có. Các mô hình AI hàng đầu vẫn tiếp tục gặp vấn đề nghiêm trọng trong việc tạo ra thông tin chính xác về mặt thực tế, thậm chí đến ngày nay vẫn thường xuyên bịa đặt thông tin và nói dối về nó. AI có nhiều ứng dụng hữu ích, nhưng với tư cách là một hệ thống truy xuất thông tin, nó vẫn còn nguy hiểm khi sử dụng. Các chương trình ngôn ngữ lớn tự tin đưa ra thông tin sai lệch, và tất cả các cách sử dụng trực giác trước đây để đánh giá xem một trang web có hợp pháp hay không đều trở nên vô dụng. Không thể phủ nhận rằng các mô hình AI có vấn đề về thiên vị. Ví dụ, các mô hình nhận dạng hình ảnh đã được biết là gặp khó khăn trong việc nhận dạng người da màu. Phụ nữ thường bị miêu tả theo cách tình dục hóa, chẳng hạn như mặc trang phục hở hang. Sự thiên vị thậm chí còn xuất hiện dưới những hình thức tưởng chừng vô hại hơn: có thể dễ dàng phát hiện văn bản do AI tạo ra bởi sự xuất hiện thường xuyên của dấu gạch ngang dài (em dash), một dấu câu được các nhà báo và nhà văn ưa chuộng - những người tạo ra phần lớn nội dung mà các mô hình được đào tạo. Nhìn chung, các mô hình thường thể hiện các quan điểm phổ biến, chính thống của công chúng. Trong bối cảnh này, động thái của Meta có thể được nhìn nhận dưới lăng kính chính trị. Việc Zuckerberg dường như đang tìm cách lấy lòng Tổng thống Trump và làm những gì có lợi về mặt chính trị khiến việc Meta công khai tuyên bố mô hình của mình sẽ bớt 'tự do' hơn trở nên đáng chú ý. Điều này có nghĩa là, trong tương lai, khi sử dụng các sản phẩm AI của Meta, người dùng có thể bắt gặp những lập luận ủng hộ các quan điểm gây tranh cãi hoặc thậm chí là thông tin sai lệch được trình bày một cách trung lập, như việc chữa COVID-19 bằng thuốc an thần cho ngựa chẳng hạn.