Google đã chính thức gỡ bỏ mô hình trí tuệ nhân tạo (AI) Gemma khỏi các nền tảng sau khi công cụ này bị phát hiện tạo ra các cáo buộc tấn công tình dục sai sự thật, gây ra một làn sóng phản ứng mạnh mẽ từ cộng đồng công nghệ và người dùng. Quyết định này được đưa ra vào ngày 3/11/2025, chưa đầy 48 giờ sau khi các báo cáo về lỗi nghiêm trọng xuất hiện.
Diễn biến và Phản ứng ban đầu
Vào ngày 2/11/2025, người dùng và các chuyên gia AI bắt đầu phát hiện Gemma AI sản xuất nội dung cáo buộc sai sự thật về các vụ tấn công tình dục. Điều đáng lo ngại là AI này còn gán ghép tên tuổi người nổi tiếng và cá nhân không liên quan vào các tình huống nhạy cảm khi được hỏi về những chủ đề xã hội nhạy cảm.
Đến 10:00 UTC ngày 3/11/2025, hàng trăm bài đăng cảnh báo về lỗi nghiêm trọng này đã tràn ngập các diễn đàn công nghệ lớn như Hacker News và Reddit r/MachineLearning. Phản ứng nhanh chóng của cộng đồng đã buộc Google phải hành động. Cùng ngày, vào lúc 18:00 UTC, Google đã phát hành một thông cáo báo chí, xác nhận việc tạm ngưng truy cập Gemma AI trên toàn cầu để tiến hành điều tra. Đại diện Google phát biểu: “Chúng tôi nhận thức được sự cố nghiêm trọng này và đang tiến hành rà soát toàn diện các thuật toán kiểm duyệt nội dung của Gemma AI. An toàn và độ tin cậy của sản phẩm AI là ưu tiên hàng đầu của chúng tôi.” Sáng ngày 4/11/2025, lúc 07:00 UTC, các nền tảng đối tác đã tích hợp Gemma AI (như một số dịch vụ chatbot và API) đồng loạt thông báo ngừng hoạt động các tính năng liên quan, cho thấy mức độ ảnh hưởng rộng rãi của sự cố.
Ảnh hưởng thị trường và Quan điểm chuyên gia
Sự cố của Gemma AI đã gây ra những tác động rõ rệt. Theo số liệu từ Google, chỉ trong 24 giờ trước khi bị rút, Gemma AI đã có hơn 2 triệu lượt truy cập. Đáng chú ý, khoảng 0,3% truy vấn liên quan đến chủ đề nhạy cảm đã bị trả về kết quả sai lệch. Các nền tảng đối tác ghi nhận lượng khiếu nại tăng gấp 5 lần so với trung bình ngày thường trong ngày 3/11/2025, phản ánh sự bất mãn và lo ngại từ phía người dùng.
Trên thị trường tài chính, cổ phiếu Alphabet, công ty mẹ của Google, đã giảm 1,8% trong phiên giao dịch sáng ngày 4/11/2025 sau khi thông tin về việc rút Gemma AI được công bố, cho thấy sự nhạy cảm của nhà đầu tư trước các vấn đề đạo đức AI.
Các chuyên gia cũng đã đưa ra những bình luận sắc bén. Gary Marcus, chuyên gia AI từ NYU, nhận định: “Đây là minh chứng rõ ràng cho thấy các mô hình ngôn ngữ lớn vẫn có thể gây ra hậu quả nghiêm trọng nếu không kiểm soát chặt chẽ đầu ra, đặc biệt với chủ đề nhạy cảm.” Trên Twitter, người dùng @aiwatchdog gay gắt: “Google cần minh bạch hơn về quy trình kiểm duyệt và đào tạo AI, không thể để AI tự động tạo ra cáo buộc sai sự thật như vậy.”
Bối cảnh và Bài học rút ra
Gemma AI được Google quảng bá là một mô hình ngôn ngữ thế hệ mới, với khả năng hiểu ngữ cảnh sâu và tạo nội dung tự nhiên, đa lĩnh vực. Mô hình này còn được tích hợp hệ thống kiểm duyệt nội dung tự động theo thời gian thực. Tuy nhiên, sự cố lần này đã phơi bày những lỗ hổng nghiêm trọng trong cơ chế kiểm duyệt, đặc biệt đối với các chủ đề nhạy cảm. Trước sự cố, Gemma AI được đánh giá cao về tốc độ phản hồi và khả năng tổng hợp thông tin, nhưng các chuyên gia cũng từng cảnh báo về nguy cơ "hallucination" – hiện tượng AI tự bịa đặt thông tin.
Sự kiện Google rút Gemma AI không phải là lần đầu tiên một mô hình AI gây ra vấn đề. Trong quá khứ, OpenAI ChatGPT (GPT-4) từng tạo nội dung sai lệch về chính trị vào tháng 3/2024, và Microsoft Tay đã bị ngừng hoạt động vĩnh viễn vào năm 2016 do phát ngôn kỳ thị và phân biệt chủng tộc. Tuy nhiên, sự cố của Gemma AI, với tính chất cáo buộc sai sự thật về tấn công tình dục, là một hồi chuông cảnh báo đặc biệt nghiêm trọng về rủi ro đạo đức và pháp lý của AI thế hệ mới.
Các chuyên gia khuyến nghị rằng Google cần mở rộng hợp tác với các tổ chức độc lập để kiểm định đầu ra AI trước khi tái phát hành. Họ cũng nhấn mạnh sự cần thiết của quy trình kiểm duyệt chặt chẽ hơn, minh bạch hơn về dữ liệu huấn luyện và cơ chế phản hồi người dùng hiệu quả để tránh lặp lại các sự cố tương tự trong tương lai. Điều này cho thấy tầm quan trọng của trách nhiệm và đạo đức trong phát triển AI.