Anthropic vừa công bố các giới hạn sử dụng hàng tuần mới cho công cụ mã hóa AI Claude Code của mình, nhằm kiểm soát tình trạng lạm dụng tài nguyên và vi phạm chính sách từ một số người dùng. Các giới hạn này sẽ có hiệu lực từ ngày 28 tháng 8 năm 2025, áp dụng cho cả thuê bao gói Pro ($20/tháng) và các gói Max ($100/tháng, $200/tháng). Động thái này diễn ra trong bối cảnh công ty đang đối mặt với những thách thức về tài nguyên tính toán và việc một số người dùng chạy công cụ này liên tục 24/7.
Chi tiết về giới hạn sử dụng mới
Anthropic cho biết các giới hạn sử dụng hiện tại, vốn được đặt lại sau mỗi năm giờ, vẫn sẽ được duy trì. Tuy nhiên, họ đang bổ sung hai giới hạn hàng tuần mới, được đặt lại sau mỗi bảy ngày. Một giới hạn là tổng thể cho toàn bộ việc sử dụng, trong khi giới hạn còn lại dành riêng cho Claude Opus 4, mô hình AI tiên tiến nhất của Anthropic. Điều này khá quan trọng, vì nó cho thấy công ty đang cố gắng quản lý chặt chẽ hơn việc sử dụng các mô hình tốn kém tài nguyên nhất của mình.
Đối với người dùng gói Pro, Anthropic ước tính họ sẽ nhận được từ 40 đến 80 giờ sử dụng Sonnet 4 thông qua Claude Code mỗi tuần. Các thuê bao gói Max $100/tháng có thể mong đợi từ 140 đến 280 giờ Sonnet 4 và từ 15 đến 35 giờ Opus 4. Còn những người dùng gói Max $200/tháng, họ sẽ có từ 240 đến 480 giờ Sonnet 4 và từ 24 đến 40 giờ Opus 4. Đáng chú ý, Anthropic cũng cho phép thuê bao Max mua thêm dung lượng sử dụng với mức giá API tiêu chuẩn nếu họ cần nhiều hơn giới hạn đã định. Đây là một điểm cộng, cho phép các "power user" vẫn có thể tiếp tục công việc của mình, dù phải trả thêm phí.
Công ty cũng lưu ý rằng việc sử dụng thực tế có thể khác nhau tùy thuộc vào kích thước codebase và các yếu tố khác. Điều này làm dấy lên một số câu hỏi về cách Anthropic đo lường chính xác "giờ sử dụng" này. Trước đây, Anthropic từng quảng cáo gói Max $200 cung cấp gấp 20 lần dung lượng sử dụng so với gói Pro. Nhưng với những con số mới được công bố, có vẻ như người dùng gói Max hiện chỉ nhận được khoảng 6 lần số giờ Claude Code so với người dùng Pro. Một sự thay đổi đáng kể, phải không?
Bối cảnh và lý do đằng sau quyết định
Quyết định áp dụng giới hạn mới không phải là không có tiền lệ. Chỉ vài tuần trước, Anthropic đã âm thầm giới thiệu các giới hạn sử dụng cho Claude Code, nhưng không công bố chi tiết. Trang trạng thái của Anthropic cũng cho thấy Claude Code đã trải qua ít nhất bảy lần gián đoạn hoặc ngừng hoạt động một phần trong tháng qua. Rõ ràng, việc một số người dùng chạy Claude Code không ngừng nghỉ đã gây áp lực lớn lên hệ thống.
Một phát ngôn viên của Anthropic, Amie Rotherham, đã chia sẻ với TechCrunch rằng "Claude Code đã trải qua nhu cầu chưa từng có kể từ khi ra mắt." Bà Rotherham cũng nhấn mạnh rằng "hầu hết người dùng sẽ không nhận thấy sự khác biệt," và ước tính rằng giới hạn này sẽ chỉ ảnh hưởng đến dưới 5% số thuê bao dựa trên mô hình sử dụng hiện tại của họ.
Lý do chính cho việc thắt chặt này là để ngăn chặn những người dùng đang chạy công cụ mã hóa AI của họ "liên tục trong nền, 24/7." Ngoài ra, Anthropic cũng muốn chấm dứt tình trạng một số ít người dùng đang vi phạm chính sách sử dụng của Claude bằng cách chia sẻ tài khoản và bán lại quyền truy cập vào Claude Code. Đây là một vấn đề chung mà nhiều nhà cung cấp dịch vụ AI đang phải đối mặt khi sản phẩm của họ trở nên phổ biến.
Xu hướng ngành và tác động rộng hơn
Anthropic không phải là công ty duy nhất trong lĩnh vực công cụ mã hóa AI phải vật lộn với việc quản lý tài nguyên và chiến lược giá cả. Hồi tháng 6, Anysphere, công ty đứng sau Cursor, cũng đã thay đổi cách định giá gói Pro $20/tháng để hạn chế người dùng lạm dụng. Mặc dù sau đó Anysphere đã phải xin lỗi vì cách truyền đạt không rõ ràng, dẫn đến việc một số người dùng phải trả nhiều hơn dự kiến. Replit, một nhà cung cấp công cụ mã hóa AI khác, cũng thực hiện các thay đổi tương tự về giá vào tháng 6.
Điều này cho thấy một xu hướng rõ ràng trong ngành AI: tài nguyên tính toán đang trở thành một nút thắt cổ chai. Hầu hết các công ty AI đều đang chạy đua để đưa các trung tâm dữ liệu AI mới vào hoạt động nhằm đáp ứng nhu cầu khổng lồ trong việc phục vụ và đào tạo các mô hình AI của họ. Giới hạn sử dụng của Anthropic là một minh chứng nữa cho thấy sự khan hiếm này.
Anthropic đã cam kết "hỗ trợ các trường hợp sử dụng dài hạn thông qua các tùy chọn khác trong tương lai." Tuy nhiên, trong ngắn hạn, công ty khẳng định rằng những giới hạn mới này sẽ giúp họ duy trì dịch vụ đáng tin cậy trên diện rộng. Liệu điều này có đủ để xoa dịu những người dùng "nặng ký" và đảm bảo sự ổn định cho tất cả mọi người? Thời gian sẽ trả lời.