Khi AI "ăn thịt" lẫn nhau: ChatGPT vướng bê bối trích dẫn "rác" từ Grokipedia
GPT-5.2 của OpenAI đang nếm trái đắng. Cơn bão chỉ trích bùng phát dữ dội khi giới thạo tin phát hiện chatbot này thản nhiên bê nguyên dữ liệu từ Grokipedia — cuốn bách khoa toàn thư trực tuyến đầy tai tiếng của xAI (Elon Musk) — để phản hồi người dùng. Giới nghiên cứu gọi đây là một vụ "tự sát tri thức" khi các trí tuệ nhân tạo hàng đầu bắt đầu vay mượn thông tin từ đối thủ mà chẳng buồn qua tay con người kiểm chứng.
Hiểm họa từ vòng lặp "AI trích dẫn AI"
Giới kỹ sư tại Silicon Valley gọi đây là tiền lệ xấu nhất trong lịch sử phát triển mô hình ngôn ngữ lớn. Grokipedia là một "phòng kín" biên tập bởi thuật toán, trái ngược hoàn toàn với cơ chế giám sát cộng đồng minh bạch của Wikipedia. Khi ChatGPT thu nạp dữ liệu từ đây, nó đang trực tiếp đưa "rác" vào hệ thống.
Các nhà nghiên cứu cảnh báo rằng nếu các mô hình AI tiếp tục "ăn" dữ liệu chưa qua lọc của nhau, các sai sót và định kiến sẽ được nhân bản theo cấp số nhân. Thực tế cho thấy, ChatGPT đã trích dẫn Grokipedia khi trả lời về các chủ đề nhạy cảm như phủ nhận Holocaust hay mối liên hệ giữa chính phủ Iran và MTN-Irancell. Những thông tin này thường mang giọng điệu khẳng định cực đoan, khác xa với các nguồn dữ liệu chính thống nhưng lại được AI trình bày như một sự thật hiển nhiên.
Grokipedia: Công cụ "tẩy trắng" quan điểm của Elon Musk
Ra mắt ngày 27/10/2025, Grokipedia được Elon Musk tung ra với tham vọng lật đổ Wikipedia mà ông cho là "quá tả". Tuy nhiên, sau vài tháng vận hành, các phân tích độc lập chỉ ra rằng nền tảng này chủ yếu thúc đẩy các quan điểm cánh hữu và thuyết âm mưu về biến đổi khí hậu hay y học.
Điểm nực cười ở chỗ: nội dung Grokipedia được tạo ra bởi Grok 4 bằng cách sao chép Wikipedia rồi chỉnh sửa câu chữ theo ý đồ riêng. Việc OpenAI tích hợp nguồn tin bị cáo buộc là công cụ "tẩy trắng" quan điểm cực đoan này đang khiến lòng tin của người dùng sụt giảm nghiêm trọng. Đáp lại áp lực, OpenAI chỉ đưa ra những thông báo xã giao về việc "thu thập nguồn tin công khai", tuyệt nhiên không giải thích tại sao họ lại hạ thấp tiêu chuẩn chọn lọc dữ liệu đến mức này.
Sự sụp đổ của dữ liệu: Khi AI tự "hủy diệt" chính mình
OpenAI không phải là kẻ duy nhất "nhúng chàm". Anthropic, cha đẻ của Claude AI, cũng bị phát hiện dùng dữ liệu Grokipedia để trả lời các truy vấn về sản lượng dầu mỏ và thị trường bia. Điều này phản ánh một thực trạng cay đắng: các công ty AI đang ưu tiên tốc độ và dữ liệu thời gian thực hơn là tính xác thực.
Chúng ta không còn ở giai đoạn lo sợ về tin giả từ con người, mà đang đối mặt với sự sụp đổ mô hình (Model Collapse). Khi AI bắt đầu trích dẫn lẫn nhau trong một vòng lặp kín, sự thật khách quan sẽ bị bóp nghẹt. Sự phụ thuộc vào Grokipedia — một nền tảng vận hành theo ý chí cá nhân, không cần đồng thuận — chính là hồi chuông khai tử cho kỷ nguyên tri thức mở. Nếu không có sự can thiệp quyết liệt để tách biệt dữ liệu "sạch" từ con người và dữ liệu "rác" từ thuật toán, tri thức nhân loại sẽ sớm trở thành một mớ hỗn độn của những định kiến được gắn mác AI.