OpenAI vừa công bố cập nhật Preparedness Framework – hệ thống nội bộ đánh giá an toàn AI, tập trung vào việc xác định các rủi ro nghiêm trọng và triển khai biện pháp bảo vệ trước khi phát hành. Điểm nổi bật nhất là chính sách "điều chỉnh yêu cầu an toàn" nếu đối thủ cạnh tranh phát hành hệ thống AI nguy cơ cao mà không có biện pháp tương đương. Điều này phản ánh áp lực cạnh tranh gay gắt giữa các công ty AI, đồng thời đặt ra thách thức về cân bằng giữa tốc độ phát triển và an toàn. Sự thay đổi này cho thấy OpenAI đang chịu áp lực lớn từ các đối thủ cạnh tranh để triển khai mô hình nhanh hơn. Họ đã bị chỉ trích vì hạ thấp các tiêu chuẩn an toàn để đổi lấy tốc độ phát hành và không cung cấp báo cáo chi tiết về thử nghiệm an toàn kịp thời. Mới đây, 12 cựu nhân viên OpenAI đã đệ trình một bản tóm tắt trong vụ kiện của Elon Musk chống lại OpenAI, lập luận rằng công ty sẽ càng cắt giảm các biện pháp an toàn nếu hoàn thành kế hoạch tái cấu trúc doanh nghiệp.https://x.com/OpenAI/status/1912222082785767857 Có lẽ để lường trước những lời chỉ trích, OpenAI tuyên bố rằng họ sẽ không thực hiện những điều chỉnh chính sách này một cách nhẹ nhàng và sẽ giữ các biện pháp bảo vệ của mình ở "mức độ bảo vệ cao hơn". "Nếu một nhà phát triển AI tiên phong khác phát hành một hệ thống có rủi ro cao mà không có các biện pháp bảo vệ tương đương, chúng tôi có thể điều chỉnh các yêu cầu của mình," OpenAI viết trong một bài đăng trên blog được xuất bản vào chiều thứ Ba. "Tuy nhiên, trước tiên, chúng tôi sẽ xác nhận một cách nghiêm ngặt rằng bối cảnh rủi ro thực sự đã thay đổi, công khai thừa nhận rằng chúng tôi đang thực hiện một điều chỉnh, đánh giá rằng điều chỉnh đó không làm tăng đáng kể rủi ro tổng thể về tác hại nghiêm trọng và vẫn giữ các biện pháp bảo vệ ở mức độ bảo vệ cao hơn." Khung Preparedness Framework được làm mới cũng làm rõ rằng OpenAI đang dựa nhiều hơn vào các đánh giá tự động để tăng tốc độ phát triển sản phẩm. Công ty cho biết rằng mặc dù họ chưa từ bỏ hoàn toàn các thử nghiệm do con người dẫn đầu, nhưng họ đã xây dựng "một bộ đánh giá tự động ngày càng tăng" mà được cho là có thể "theo kịp nhịp độ phát hành nhanh hơn". Một số báo cáo mâu thuẫn với điều này. Theo Financial Times, OpenAI đã cho các tester chưa đầy một tuần để kiểm tra an toàn cho một mô hình lớn sắp ra mắt - một mốc thời gian nén so với các bản phát hành trước đó. Các nguồn tin của ấn phẩm cũng cáo buộc rằng nhiều thử nghiệm an toàn của OpenAI hiện được thực hiện trên các phiên bản mô hình cũ hơn thay vì các phiên bản được phát hành cho công chúng. Các thay đổi khác đối với khuôn khổ của OpenAI liên quan đến cách công ty phân loại các mô hình theo rủi ro, bao gồm các mô hình có thể che giấu khả năng của chúng, trốn tránh các biện pháp bảo vệ, ngăn chặn việc tắt máy và thậm chí tự sao chép. OpenAI cho biết rằng họ sẽ tập trung vào việc liệu các mô hình có đáp ứng một trong hai ngưỡng hay không: khả năng "cao" hoặc khả năng "quan trọng". Định nghĩa của OpenAI về khả năng trước đây là một mô hình có thể "khuếch đại các con đường hiện có để gây hại nghiêm trọng". Cái sau là các mô hình "giới thiệu những con đường mới chưa từng có để gây hại nghiêm trọng", theo công ty. "Các hệ thống được bảo hiểm đạt đến khả năng cao phải có các biện pháp bảo vệ đủ để giảm thiểu rủi ro liên quan đến tác hại nghiêm trọng trước khi chúng được triển khai," OpenAI viết trong bài đăng trên blog của mình. "Các hệ thống đạt đến khả năng quan trọng cũng yêu cầu các biện pháp bảo vệ đủ để giảm thiểu các rủi ro liên quan trong quá trình phát triển." Các bản cập nhật là những bản cập nhật đầu tiên mà OpenAI đã thực hiện đối với Khung Preparedness Framework kể từ năm 2023.