Đối thủ của Anthropic là OpenAI vừa thay thế công ty này để trở thành nhà cung cấp AI chính cho chính phủ Mỹ. Quyết định này diễn ra sau khi xảy ra tranh chấp giữa Anthropic và chính phủ liên quan đến việc nới lỏng các cơ chế an toàn của AI, đồng thời cũng khiến chatbot Claude trở nên phổ biến hơn trong cộng đồng người dùng.
Trong bối cảnh xung đột tại Iran đang leo thang, một số báo cáo cho biết các mô hình AI của Anthropic đã được sử dụng trong việc hỗ trợ lập kế hoạch tấn công. Sự căng thẳng giữa công ty và chính phủ Mỹ vì thế đã thu hút sự chú ý lớn đối với vấn đề đạo đức khi sử dụng AI trong lĩnh vực quân sự.
Anthropic đã từ chối gỡ bỏ các biện pháp bảo vệ của AI nhằm ngăn việc sử dụng công nghệ này cho vũ khí tự động hoặc hệ thống giám sát. Động thái này khiến Lầu Năm Góc, dưới sự lãnh đạo của Bộ trưởng Quốc phòng Pete Hegseth, coi công ty là một “rủi ro trong chuỗi cung ứng”. Anthropic cho biết họ sẽ phản đối quyết định này và sẵn sàng đưa vụ việc ra tòa.

Sau tranh chấp đó, OpenAI của Sam Altman đã nhanh chóng lấp khoảng trống, thay thế Anthropic để trở thành nhà cung cấp công cụ AI chính cho nhiều cơ quan liên bang, bao gồm một số đơn vị thuộc Bộ Quốc phòng Mỹ.
Phản ứng từ công chúng
Mặc dù vướng vào tranh chấp với chính phủ, Anthropic lại nhận được sự chú ý lớn từ công chúng. Ứng dụng Claude của công ty đã leo lên vị trí đầu bảng xếp hạng App Store tại Mỹ và Anh, vượt qua cả ChatGPT của OpenAI.
Một phần nguyên nhân là do nhiều người dùng bắt đầu rời bỏ ChatGPT sau khi xuất hiện thông tin OpenAI hợp tác với Lầu Năm Góc. Trước phản ứng của dư luận, CEO Sam Altman đã lên tiếng khẳng định rằng công nghệ của OpenAI sẽ không bị cố ý sử dụng để giám sát công dân Mỹ trong nước.
Sau làn sóng chỉ trích, OpenAI cho biết họ đã làm việc với chính phủ để bổ sung các điều khoản mới trong thỏa thuận hợp tác. Công ty khẳng định rằng thỏa thuận này có nhiều cơ chế bảo vệ hơn bất kỳ thỏa thuận AI mật nào trước đây, bao gồm cả các hợp đồng từng được ký với Anthropic.
Sau quyết định thay đổi nhà cung cấp, nhiều cơ quan liên bang như Bộ Ngoại giao, Bộ Tài chính và Bộ Y tế & Dịch vụ Nhân sinh Mỹ đã ngừng sử dụng nền tảng Claude của Anthropic và chuyển sang các mô hình AI của OpenAI như GPT-4.1.
Bộ Ngoại giao Mỹ cũng xác nhận chatbot nội bộ có tên StateChat đã chuyển sang sử dụng công nghệ của OpenAI để duy trì các dịch vụ hỗ trợ bằng AI.

Việc thay thế Anthropic cũng ảnh hưởng đến các nhà thầu quốc phòng. Công ty Palantir, từng tích hợp Claude vào nền tảng Maven Smart Systems của mình, đã được yêu cầu loại bỏ AI của Anthropic. Một số doanh nghiệp khác từng sử dụng Claude cho các quy trình phân tích tình báo và hỗ trợ ra quyết định cũng đang thực hiện những điều chỉnh tương tự.
Một số tổ chức trong ngành công nghệ đã bày tỏ lo ngại về việc gắn nhãn Anthropic là “rủi ro chuỗi cung ứng”, cho rằng điều này có thể gây gián đoạn quá trình mua sắm công nghệ và làm chậm đổi mới.
Theo một báo cáo của BBC, các nhà đầu tư của Anthropic cũng tỏ ra không hài lòng. Họ cho rằng cách tiếp cận tập trung vào an toàn của công ty là đáng trân trọng về mặt nguyên tắc, nhưng lại khiến doanh nghiệp mất đi nhiều cơ hội thương mại.
OpenAI có được dùng cho giám sát hay vũ khí tự động không?
Việc chính phủ Mỹ chuyển từ Anthropic sang OpenAI cho thấy sự căng thẳng giữa nhu cầu an ninh quốc gia và các tiêu chuẩn đạo đức của AI. Tuy nhiên, OpenAI khẳng định họ cũng đặt ra những giới hạn rõ ràng đối với việc sử dụng công nghệ của mình.
Theo tuyên bố của công ty, có ba nguyên tắc chính định hướng việc hợp tác với Bộ Quốc phòng Mỹ. Thứ nhất, công nghệ của OpenAI không được sử dụng cho các hệ thống giám sát hàng loạt đối với công dân trong nước. Thứ hai, AI của công ty không được dùng để điều khiển các hệ thống vũ khí tự động. Thứ ba, AI không được sử dụng cho những quyết định tự động có mức độ rủi ro cao, chẳng hạn như các hệ thống chấm điểm xã hội.
OpenAI cũng cho rằng một số phòng thí nghiệm AI khác đã nới lỏng hoặc loại bỏ nhiều cơ chế bảo vệ và chủ yếu dựa vào các chính sách sử dụng để kiểm soát rủi ro trong các dự án an ninh quốc gia. Theo công ty, cách tiếp cận của họ giúp giảm thiểu nguy cơ lạm dụng công nghệ tốt hơn.
Nhìn chung, việc OpenAI trở thành nhà cung cấp AI mới cho chính phủ Mỹ được xem là một bước ngoặt quan trọng trong chính sách AI của quốc gia này. Quyết định này không chỉ ảnh hưởng đến các tiêu chuẩn đạo đức trong phát triển AI mà còn định hình cách chính phủ Mỹ triển khai và mua sắm công nghệ trong tương lai.
Học IT










Microsoft Word 2013
Microsoft Word 2007
Microsoft Excel 2019
Microsoft Excel 2016
Microsoft PowerPoint 2019
Google Sheets
Lập trình Scratch
Bootstrap
Prompt
Ô tô, Xe máy