Hoàn thiện hành lang pháp lý cho trí tuệ nhân tạo: Phân loại rủi ro để kiểm soát hệ thống AI
Xã hội - Ngày đăng : 13:40, 08/05/2026
.jpg)
Trong bối cảnh trí tuệ nhân tạo đang phát triển mạnh mẽ và tác động sâu rộng đến nhiều lĩnh vực kinh tế - xã hội, việc xây dựng cơ chế quản lý phù hợp đối với công nghệ này trở thành yêu cầu cấp thiết. Từ các ứng dụng hỗ trợ hành chính công, tài chính - ngân hàng, y tế, giáo dục cho tới phân tích dữ liệu lớn, AI đang dần trở thành công nghệ nền tảng của quá trình chuyển đổi số quốc gia.
Tuy nhiên, cùng với cơ hội, AI cũng tiềm ẩn nhiều nguy cơ liên quan đến an toàn dữ liệu, quyền riêng tư, sai lệch thuật toán, thao túng thông tin hoặc các quyết định tự động ảnh hưởng trực tiếp tới quyền và lợi ích của con người. Vì vậy, Nghị định số 142/2026/NĐ-CP được ban hành nhằm thiết lập cơ chế quản lý thống nhất, kiểm soát rủi ro và thúc đẩy phát triển AI theo hướng an toàn, minh bạch và có trách nhiệm.
Phân loại hệ thống AI theo mức độ rủi ro
Một trong những nội dung trọng tâm của Nghị định là quy định nguyên tắc phân loại hệ thống AI dựa trên mức độ rủi ro mà hệ thống có thể gây ra đối với sức khỏe con người, quyền và lợi ích hợp pháp của tổ chức, cá nhân cũng như an ninh, trật tự và an toàn xã hội.
Theo đó, các hệ thống AI sẽ được phân thành nhiều nhóm khác nhau để áp dụng mức độ quản lý tương ứng. Trong đó, nhóm hệ thống AI có rủi ro cao sẽ chịu sự kiểm soát chặt chẽ hơn về dữ liệu, thuật toán, khả năng giải trình và cơ chế giám sát.
Nghị định quy định tổ chức, cá nhân phát triển hoặc cung cấp hệ thống AI có trách nhiệm tự thực hiện việc phân loại trước khi đưa hệ thống vào sử dụng hoặc lưu hành trên thị trường. Việc phân loại phải được thực hiện dựa trên mục đích sử dụng, phạm vi tác động và mức độ ảnh hưởng của hệ thống AI tới người dùng và xã hội.
Đáng chú ý, đối với các hệ thống AI có khả năng ảnh hưởng trực tiếp đến quyền con người hoặc các quyết định quan trọng như tuyển dụng lao động, đánh giá tín dụng, khám chữa bệnh, giáo dục hoặc quản lý hành chính, yêu cầu quản lý sẽ nghiêm ngặt hơn nhằm hạn chế nguy cơ sai lệch hoặc phân biệt đối xử do thuật toán gây ra.
Siết chặt yêu cầu đối với hệ thống AI rủi ro cao
Theo Nghị định, các hệ thống AI thuộc nhóm rủi ro cao phải đáp ứng hàng loạt yêu cầu kỹ thuật và quản trị trước khi được triển khai.
Cụ thể, đơn vị phát triển hoặc vận hành phải xây dựng hệ thống quản trị rủi ro xuyên suốt vòng đời của AI; bảo đảm chất lượng dữ liệu đầu vào; kiểm soát nguy cơ thiên lệch dữ liệu; đồng thời duy trì khả năng truy xuất, giải trình và giám sát hoạt động của hệ thống.
Ngoài ra, Nghị định cũng yêu cầu phải có sự giám sát của con người đối với các quyết định do AI đưa ra, đặc biệt trong các lĩnh vực nhạy cảm có ảnh hưởng lớn đến quyền lợi của cá nhân và tổ chức.
Các hệ thống AI rủi ro cao cũng phải bảo đảm tiêu chuẩn về an toàn thông tin, an ninh mạng và bảo vệ dữ liệu cá nhân theo quy định pháp luật hiện hành.
Quy định cụ thể về đánh giá sự phù hợp
Một điểm mới quan trọng khác của Nghị định là quy định hoạt động đánh giá sự phù hợp đối với hệ thống AI trước khi đưa vào sử dụng.
Theo đó, việc đánh giá nhằm xác định hệ thống AI có đáp ứng đầy đủ các yêu cầu kỹ thuật, tiêu chuẩn an toàn và quy định pháp luật hay không. Đây được xem là cơ chế kiểm định nhằm hạn chế các sản phẩm AI không bảo đảm an toàn hoặc tiềm ẩn nguy cơ gây tác động tiêu cực đến xã hội.
Hoạt động đánh giá sự phù hợp có thể được thực hiện theo hai hình thức gồm: tự đánh giá của tổ chức, cá nhân phát triển hệ thống AI hoặc đánh giá bởi tổ chức đánh giá sự phù hợp theo quy định của pháp luật.
Kết quả đánh giá phải được lưu trữ và cung cấp cho cơ quan quản lý nhà nước khi có yêu cầu. Đối với các hệ thống AI có rủi ro cao, cơ quan quản lý có thể yêu cầu đánh giá độc lập hoặc áp dụng các biện pháp kiểm tra bổ sung nhằm bảo đảm an toàn trước khi đưa vào vận hành chính thức.
Đề cao nguyên tắc minh bạch và trách nhiệm giải trình
Bên cạnh các yêu cầu kỹ thuật, Nghị định nhấn mạnh nguyên tắc phát triển AI lấy con người làm trung tâm, bảo đảm minh bạch và trách nhiệm giải trình trong quá trình vận hành.
Theo đó, tổ chức, cá nhân phát triển AI phải cung cấp đầy đủ thông tin cần thiết về hệ thống, bao gồm mục đích sử dụng, phạm vi hoạt động, khả năng và giới hạn của AI. Người sử dụng cần được thông báo khi tương tác với hệ thống AI trong các trường hợp theo quy định.
Nghị định cũng yêu cầu các đơn vị triển khai AI xây dựng cơ chế tiếp nhận, xử lý phản ánh và khắc phục sự cố phát sinh liên quan đến hệ thống AI; đồng thời tăng cường các biện pháp bảo vệ dữ liệu cá nhân và quyền riêng tư của người dùng.
Tạo nền tảng pháp lý cho phát triển AI bền vững
Theo đánh giá của giới chuyên gia, việc ban hành Nghị định số 142/2026/NĐ-CP đánh dấu bước hoàn thiện quan trọng trong hệ thống pháp luật về công nghệ số tại Việt Nam.
Trong bối cảnh AI đang trở thành động lực tăng trưởng mới của nền kinh tế số, việc xây dựng hành lang pháp lý rõ ràng sẽ góp phần thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia, đồng thời kiểm soát hiệu quả các rủi ro phát sinh từ công nghệ mới.
Nghị định cũng được kỳ vọng sẽ tạo cơ sở để các cơ quan, tổ chức và doanh nghiệp chủ động đầu tư, nghiên cứu và ứng dụng AI theo hướng an toàn, có trách nhiệm và phù hợp với thông lệ quốc tế, góp phần thực hiện mục tiêu chuyển đổi số quốc gia trong giai đoạn tới./.