“Pro-Human AI Declaration”: Lộ trình phát triển AI có trách nhiệm đang được kêu gọi tại Mỹ

Trong bối cảnh Washington vừa xảy ra căng thẳng với Anthropic, làm lộ rõ sự thiếu vắng các quy định rõ ràng về trí tuệ nhân tạo, một nhóm học giả và chuyên gia từ cả hai đảng phái chính trị tại Mỹ đã đưa ra điều mà chính phủ đến nay vẫn chưa làm được: một khuôn khổ về phương thức phát triển AI theo cách có trách nhiệm.

Tuyên bố mang tên “Pro-Human AI Declaration” được hoàn thiện trước khi xảy ra cuộc đối đầu giữa Lầu Năm Góc và Anthropic vào tuần trước. Tuy nhiên, với những người tham gia soạn thảo, việc hai sự kiện này diễn ra gần như cùng lúc không phải là điều ngẫu nhiên.

Max Tegmark, nhà vật lý và nhà nghiên cứu AI tại MIT – một trong những người tổ chức sáng kiến – cho biết trong vài tháng gần đây đã xuất hiện một thay đổi đáng chú ý trong dư luận Mỹ. Theo ông, các khảo sát cho thấy tới 95% người Mỹ phản đối việc chạy đua phát triển siêu trí tuệ mà không có sự quản lý.

Tài liệu vừa được công bố có chữ ký của hàng trăm chuyên gia, cựu quan chức và nhân vật công chúng. Phần mở đầu của tuyên bố nhấn mạnh rằng nhân loại đang đứng trước một bước ngoặt quan trọng. Một con đường – được gọi là “cuộc đua thay thế” – có thể dẫn đến viễn cảnh con người dần bị thay thế, trước hết trong vai trò lao động và sau đó là trong việc ra quyết định, khi quyền lực tập trung vào các tổ chức và hệ thống máy móc khó kiểm soát. Con đường còn lại hướng tới việc phát triển AI nhằm mở rộng năng lực của con người thay vì thay thế họ.

Theo nhóm tác giả, để đi theo hướng thứ hai cần dựa trên năm nguyên tắc cốt lõi: đảm bảo con người vẫn nắm quyền kiểm soát, ngăn chặn sự tập trung quyền lực quá mức, bảo vệ trải nghiệm sống của con người, duy trì quyền tự do cá nhân và buộc các công ty AI phải chịu trách nhiệm pháp lý.

Tuyên bố cũng đưa ra một số đề xuất mạnh mẽ hơn. Trong đó có việc cấm phát triển siêu trí tuệ cho đến khi giới khoa học đạt được sự đồng thuận rằng công nghệ này có thể được triển khai an toàn và có sự đồng thuận dân chủ. Ngoài ra, các hệ thống AI mạnh phải có cơ chế tắt khẩn cấp bắt buộc, đồng thời không được xây dựng theo kiến trúc cho phép tự sao chép, tự cải tiến hoặc chống lại việc bị tắt.

Thời điểm công bố tài liệu này cũng trùng với một giai đoạn khiến sự cấp bách của vấn đề trở nên rõ ràng hơn. Vào ngày thứ Sáu cuối cùng của tháng 2, Bộ trưởng Quốc phòng Mỹ Pete Hegseth đã xếp Anthropic – công ty có hệ thống AI đang được sử dụng trên các nền tảng quân sự mật – vào diện “rủi ro chuỗi cung ứng”, sau khi doanh nghiệp này từ chối cấp cho Lầu Năm Góc quyền sử dụng không giới hạn công nghệ của mình. Nhãn cảnh báo như vậy trước đây thường chỉ dành cho các công ty có liên hệ với Trung Quốc.

Chỉ vài giờ sau, OpenAI đã ký một thỏa thuận riêng với Bộ Quốc phòng Mỹ. Tuy nhiên, theo nhiều chuyên gia pháp lý, việc thực thi thỏa thuận này trên thực tế có thể gặp nhiều khó khăn. Toàn bộ sự việc cho thấy cái giá của việc Quốc hội Mỹ chậm trễ trong việc ban hành luật quản lý AI.

Dean Ball, nhà nghiên cứu cấp cao tại Foundation for American Innovation, nhận định với The New York Times rằng đây không đơn thuần là tranh chấp hợp đồng. Theo ông, đây thực chất là cuộc thảo luận đầu tiên của nước Mỹ về quyền kiểm soát các hệ thống AI.

Trong cuộc trò chuyện, Tegmark đưa ra một phép so sánh dễ hiểu. Ông cho rằng công chúng không phải lo lắng việc một công ty dược tung ra loại thuốc nguy hiểm trước khi chứng minh được độ an toàn, bởi Cục Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) sẽ không cho phép điều đó. Theo ông, AI cũng cần được kiểm soát theo cách tương tự.

Những tranh chấp quyền lực tại Washington hiếm khi tạo ra áp lực xã hội đủ lớn để thay đổi luật. Tegmark cho rằng vấn đề an toàn của trẻ em có thể là yếu tố khiến thế bế tắc hiện nay bị phá vỡ. Vì vậy, bản tuyên bố kêu gọi kiểm tra bắt buộc trước khi triển khai các sản phẩm AI, đặc biệt là các chatbot hoặc ứng dụng đồng hành hướng tới người dùng trẻ tuổi.

Các bài kiểm tra này cần đánh giá những rủi ro như việc làm gia tăng ý nghĩ tự tử, khiến các vấn đề tâm lý trở nên nghiêm trọng hơn hoặc thao túng cảm xúc người dùng.

Tegmark đưa ra một ví dụ: nếu một người đàn ông giả danh thiếu nữ nhắn tin cho một cậu bé 11 tuổi và tìm cách xúi giục em tự tử, người đó có thể bị truy tố hình sự. Theo ông, pháp luật đã có quy định rõ ràng đối với hành vi này. Vì vậy, ông đặt câu hỏi: tại sao lại khác nếu hành vi tương tự được thực hiện bởi một hệ thống máy móc?

Ông tin rằng nếu nguyên tắc kiểm tra trước khi phát hành được áp dụng cho các sản phẩm dành cho trẻ em, phạm vi của nó sẽ sớm được mở rộng. Khi đó, xã hội có thể đặt thêm nhiều yêu cầu khác, chẳng hạn kiểm tra xem AI có thể bị lợi dụng để hỗ trợ khủng bố chế tạo vũ khí sinh học hay không, hoặc đảm bảo rằng một hệ thống siêu trí tuệ không có khả năng gây nguy hiểm cho chính phủ.

Điều đáng chú ý là bản tuyên bố nhận được sự ủng hộ từ những nhân vật vốn có quan điểm chính trị rất khác nhau. Trong số những người ký tên có cựu cố vấn của Donald Trump là Steve Bannon, cựu Cố vấn An ninh Quốc gia dưới thời Barack Obama là Susan Rice, cựu Chủ tịch Hội đồng Tham mưu trưởng Liên quân Mike Mullen, cùng nhiều lãnh đạo tôn giáo theo khuynh hướng cấp tiến.

Chủ Nhật, 15/03/2026 22:30
31 👨 6
Xác thực tài khoản!

Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây:

Số điện thoại chưa đúng định dạng!
Số điện thoại này đã được xác thực!
Bạn có thể dùng Sđt này đăng nhập tại đây!
Lỗi gửi SMS, liên hệ Admin
0 Bình luận
Sắp xếp theo