Các mô hình trí tuệ nhân tạo (AI) do các phòng thí nghiệm AI của Trung Quốc phát triển, như DeepSeek, từ lâu đã được biết đến với việc kiểm duyệt các chủ đề nhạy cảm về chính trị. Một biện pháp được thông qua vào năm 2023 bởi đảng cầm quyền của Trung Quốc cấm các mô hình tạo ra nội dung "gây tổn hại đến sự thống nhất của đất nước và hòa hợp xã hội." Điều này dẫn đến sự khác biệt đáng kể trong cách các AI này trả lời các câu hỏi, tùy thuộc vào ngôn ngữ được sử dụng. Theo một nghiên cứu gần đây, mô hình R1 của DeepSeek từ chối trả lời 85% các câu hỏi về các chủ đề bị coi là nhạy cảm. Sự kiểm duyệt này không chỉ giới hạn ở tiếng Trung Quốc; nó còn ảnh hưởng đến các ngôn ngữ khác, mặc dù ở mức độ khác nhau. Điều này cho thấy một nỗ lực có ý thức để định hình cách AI trình bày thông tin về Trung Quốc cho người dùng trên toàn thế giới. Sự khác biệt ngôn ngữ trong phản hồi của AI có thể có nhiều nguyên nhân. Một yếu tố quan trọng là sự khác biệt trong dữ liệu huấn luyện được sử dụng để phát triển các mô hình này. Các mô hình được huấn luyện chủ yếu trên dữ liệu tiếng Trung Quốc có thể nhạy cảm hơn với các quy tắc kiểm duyệt của Trung Quốc. Ngoài ra, các thuật toán kiểm duyệt có thể được điều chỉnh để hoạt động khác nhau tùy thuộc vào ngôn ngữ, cho phép mức độ tự do ngôn luận lớn hơn trong một số ngôn ngữ nhất định. Một khía cạnh quan trọng khác là sự khác biệt về văn hóa và chính trị giữa các quốc gia khác nhau. Các chủ đề được coi là nhạy cảm ở Trung Quốc có thể không phải là như vậy ở các quốc gia khác. Do đó, các mô hình AI có thể được lập trình để phản hồi khác nhau tùy thuộc vào vị trí địa lý của người dùng hoặc ngôn ngữ được sử dụng. Những phát hiện này đặt ra những câu hỏi quan trọng về tính minh bạch và trách nhiệm giải trình của các hệ thống AI. Khi AI ngày càng trở nên phổ biến trong cuộc sống của chúng ta, điều quan trọng là phải đảm bảo rằng chúng không được sử dụng để truyền bá thông tin sai lệch hoặc kiểm duyệt các quan điểm bất đồng chính kiến. Các nhà phát triển AI cần phải minh bạch về cách các mô hình của họ được huấn luyện và kiểm duyệt, đồng thời thực hiện các bước để giảm thiểu tác động của sự thiên vị và kiểm duyệt. Việc hiểu rõ sự khác biệt trong phản hồi của AI dựa trên ngôn ngữ là rất quan trọng để đánh giá một cách khách quan thông tin do các hệ thống này cung cấp. Người dùng nên nhận thức được khả năng kiểm duyệt và thiên vị, đồng thời tìm kiếm thông tin từ nhiều nguồn khác nhau để có được một bức tranh đầy đủ hơn về các vấn đề phức tạp. Sự kiểm duyệt của AI ở Trung Quốc không chỉ là một vấn đề kỹ thuật; nó còn là một vấn đề chính trị và xã hội sâu sắc. Nó phản ánh những nỗ lực của chính phủ Trung Quốc nhằm kiểm soát thông tin và định hình dư luận, cả trong và ngoài nước. Khi AI tiếp tục phát triển và trở nên mạnh mẽ hơn, điều quan trọng là phải giải quyết những vấn đề này một cách cẩn thận và đảm bảo rằng AI được sử dụng để thúc đẩy tự do ngôn luận và tiếp cận thông tin, thay vì hạn chế chúng. Tóm lại, sự khác biệt trong câu trả lời của AI về Trung Quốc tùy thuộc vào ngôn ngữ cho thấy một vấn đề phức tạp liên quan đến kiểm duyệt, thiên vị và sự khác biệt về văn hóa. Việc nhận thức được những vấn đề này là rất quan trọng để sử dụng AI một cách có trách nhiệm và đảm bảo rằng nó phục vụ lợi ích của tất cả mọi người.