Sau nhiều tháng tranh luận căng thẳng, Linus Torvalds cùng các maintainer của Linux kernel đã chính thức đưa ra bộ quy định đầu tiên liên quan đến việc sử dụng AI trong đóng góp mã nguồn.
Chính sách này phản ánh cách tiếp cận thực dụng quen thuộc của Torvalds: chấp nhận AI như một công cụ hữu ích, nhưng vẫn giữ tiêu chuẩn chất lượng cực kỳ nghiêm ngặt của kernel.
Nguyên tắc cốt lõi khi dùng AI để viết code
Quy định mới xoay quanh ba nguyên tắc quan trọng mà bất kỳ lập trình viên nào cũng cần nắm rõ.
Trước hết, AI không được phép ký tên vào code. Trong hệ sinh thái Linux, tag “Signed-off-by” là cam kết pháp lý liên quan đến giấy phép và nguồn gốc mã nguồn (DCO – Developer Certificate of Origin). Điều này đồng nghĩa, dù code được AI viết 100%, người submit vẫn phải đứng tên và chịu trách nhiệm hoàn toàn.
Thứ hai, mọi code có sử dụng AI bắt buộc phải khai báo. Các lập trình viên cần thêm tag “Assisted-by”, ghi rõ đã dùng model, agent hay công cụ nào. Đây không phải để “gắn mác” tiêu cực, mà nhằm tăng tính minh bạch và hỗ trợ quá trình review.
Cuối cùng, trách nhiệm vẫn thuộc về con người. Người gửi patch phải kiểm tra kỹ code, đảm bảo không vi phạm bản quyền và không tồn tại lỗi hoặc lỗ hổng bảo mật. Nếu có vấn đề xảy ra, AI không chịu trách nhiệm — bạn chịu.

AI chỉ là công cụ, không phải đồng tác giả
Một điểm đáng chú ý là Linux kernel không coi AI là “co-author” (đồng tác giả), mà chỉ là công cụ hỗ trợ.
Ban đầu, cộng đồng từng tranh luận về việc dùng tag như “Generated-by” hay “Co-developed-by”. Tuy nhiên, cuối cùng họ chọn “Assisted-by” để phản ánh đúng vai trò của AI: hỗ trợ, chứ không phải sáng tạo độc lập.
Quyết định này cũng xuất phát từ thực tế rằng phần lớn AI hiện nay được dùng cho các tác vụ như gợi ý code, refactor hoặc tạo test, chứ không hoàn toàn thay thế lập trình viên.
Thậm chí, theo Greg Kroah-Hartman – maintainer của Linux stable kernel – chất lượng công cụ AI đã cải thiện rõ rệt, đến mức có thể tạo ra các báo cáo bảo mật thực sự hữu ích, thay vì “ảo tưởng” như trước đây.
Bài học từ tranh cãi trong cộng đồng
Chính sách này không xuất hiện một cách ngẫu nhiên, mà được “tôi luyện” từ những tranh cãi thực tế.
Một ví dụ điển hình là khi kỹ sư Nvidia Sasha Levin gửi một patch hoàn toàn do AI tạo ra (bao gồm cả changelog và test), nhưng không thông báo cho reviewer. Dù ông đã kiểm tra lại code, việc thiếu minh bạch đã gây phản ứng mạnh trong cộng đồng.
Chính từ những sự việc như vậy, cộng đồng Linux mới nhận ra cần có quy định rõ ràng để tránh rủi ro trong tương lai.
Điều thú vị là Linux kernel không dựa vào công cụ phát hiện AI để kiểm soát chất lượng code. Thay vào đó, họ vẫn tin vào những phương pháp truyền thống: kinh nghiệm kỹ thuật, khả năng nhận diện pattern và review thủ công.
Lý do rất đơn giản. Code “rác” thì dễ phát hiện. Nhưng nguy hiểm nhất là những đoạn code trông có vẻ hợp lý, compile được, đúng style, nhưng lại chứa bug tinh vi hoặc gây khó khăn trong bảo trì về lâu dài.
Đây chính là điểm mà AI hiện nay vẫn còn hạn chế — và cũng là lý do con người không thể bị thay thế trong quá trình review.
Minh bạch quan trọng hơn kiểm soát tuyệt đối
Chính sách mới không nhằm bắt mọi vi phạm, mà tập trung vào việc tạo ra hậu quả đủ lớn để ngăn chặn hành vi thiếu trung thực.
Trong cộng đồng Linux, việc gửi code kém chất lượng hoặc gian lận có thể khiến bạn “mất uy tín” vĩnh viễn. Và với những ai từng bị Torvalds phê bình, họ đều hiểu điều đó nghiêm trọng đến mức nào.
Việc Linux kernel chính thức đưa ra quy định về AI là một dấu mốc quan trọng. Nó cho thấy AI đã trở thành một phần không thể thiếu trong phát triển phần mềm, nhưng cũng khẳng định rõ ràng rằng AI không thay thế trách nhiệm của lập trình viên.
Trong thế giới mã nguồn mở, minh bạch, trách nhiệm và chất lượng vẫn luôn là ưu tiên hàng đầu — dù công cụ có thay đổi đến đâu.
Hướng dẫn AI
Học IT










Hàm Excel