Chính phủ Việt Nam đã ban hành Dự thảo Luật trí tuệ nhân tạo đầu tiên của Việt Nam, đánh dấu bước tiến cụ thể đầu tiên của Việt Nam trong việc kiểm soát sự phát triển của trí tuệ nhân tạo thông qua công cụ pháp lý. Việc ban hành Luật trí tuệ nhân tạo cũng đưa Việt Nam trở thành một trong số ít các quốc gia trên thế giới có đạo luật riêng để quản lý việc phát triển trí tuệ nhân tạo. Điều này thể hiện sự chủ động thích ứng và đồng thời cũng là nỗ lực của Chính phủ để đưa Việt Nam trở thành miền đất hứa nhiều tìm năng cho các dự án trí tuệ nhân tạo trong kỷ nguyên này.
Dự thảo Luật trí tuệ nhân tạo đưa ra các quy định về quản lý, kiểm soát các hệ thống trí tuệ nhân tạo dựa trên rủi ro. Do đó, bài viết này sẽ tóm tắt nhanh một vài quy định quan trọng về phân loại hệ thống trí tuệ nhân tạo trong Dự thảo Luật trí tuệ nhân tạo hiện tại:
- Phânloại các hệ thống trí tuệ nhân tạo dựa trên mức độ rủi ro
Theo Dự thảo Luật trí tuệ nhân tạo, hệ thống trí tuệ nhân tạo được phân loại theo các mức độ rủi ro như sau:
(i) Rủi ro không chấp nhận được: là hệ thống trí tuệ nhân tạo có khả năng gây tổn hại nghiêm trọng, không thể khắc phục đối với quyền con người, an ninh quốc gia, trật tự, an toàn xã hội hoặc được sử dụng để thực hiện các hành vi vi phạm pháp luật nghiêm cấm.
(ii) Rủi ro cao: là hệ thống có khả năng gây tổn hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của cá nhân, tổ chức hoặc lợi ích công cộng quan trọng khác.
(iii) Rủi ro trung bình: là hệ thống không thuộc các trường hợp Rủi ro không chấp nhận được hoặc Rủi ro cao, trong quá trình sử dụng có nguy cơ gây lừa dối, nhầm lẫn hoặc thao túng người sử dụng do không nhận biết được bản chất trí tuệ nhân tạo của hệ thống hoặc nội dung do hệ thống tạo ra, trừ trường hợp hiển nhiên trong bối cảnh sử dụng.
(iv) Rủi ro thấp: là hệ thống không thuộc các trường hợp Rủi ro không chấp nhận được, Rủi ro cao hoặc Rủi ro trung bình.
Trước khi đưa ra thị trường hoặc triển khai, nhà cung cấp hoặc bên triển khai có trách nhiệm tự phân loại hệ thống trí tuệ nhân tạo theo tiêu chí quy định tại Luật này và hướng dẫn của Chính phủ; lập, lưu giữ hồ sơ kỹ thuật và chịu trách nhiệm trước pháp luật về kết quả tự phân loại. Trường hợp không xác định được chắc chắn nhóm rủi ro, nhà cung cấp có quyền gửi yêu cầu tham vấn và đề nghị xác nhận bằng văn bản kèm theo hồ sơ kỹ thuật đến cơ quan thường trực của Ủy ban Quốc gia về Trí tuệ nhân tạo để được hướng dẫn, xác nhận.
Chính phủ ban hành tiêu chí, phương pháp đánh giá và quy trình cập nhật mức độ rủi ro của hệ thống trí tuệ nhân tạo.
- Nguyêntắcphân loại, quản lý hệ thống trí tuệ nhân tạo
Việc phân loại và quản lý hệ thống trí tuệ nhân tạo phải tuân thủ các nguyên tắc cơ bản sau đây:
- a)Phânloại rủi ro dựa trên bằng chứng khoa học, dữ liệu có thể kiểm chứng, có xem xét đến mức độ tự chủ, khả năng học tập và phạm vi tác động của hệ thống, phù hợp với bản chất công nghệ, mục đích sử dụng và tác động có thể dự báo hợp lý; việc phân loại phải căn cứ đồng thời vào mục đích sử dụng dự kiến của hệ thống và hậu quả, tác động có thể gây ra;
- b)Việcphân loại rủi ro phải dựa trên tiêu chí bao gồm cả yếu tố định tính và định lượng, bảo đảm tính minh bạch và thống nhất trong áp dụng;
- c)Tiêuchí, phương pháp phân loại và công cụ đánh giá rủi ro được cập nhật định kỳ theo sự phát triển của công nghệ và yêu cầu quản lý thực tiễn.
- d)Biệnpháp quản lý phải tương xứng với mức rủi Việc xác nhận đánh giá trước khi đưa ra thị trường chỉ áp dụng đối với hệ thống có nguy cơ gây tổn hại rõ ràng và nghiêm trọng, các trường hợp còn lại áp dụng cơ chế giám sát đánh giá sau khi đưa ra thị trường.
- e)Kếtquả đánh giá, chứng nhận hoặc công nhận sự phù hợp do cơ quan có thẩm quyền cấp hoặc được thừa nhận theo pháp luật chuyên ngành, tiêu chuẩn quốc tế hoặc điều ước quốc tế mà Việt Nam là thành viên, được công nhận tương đương khi xem xét tuân thủ quy định của Luật này.
- f) Khicóthay đổi đáng kể về mục đích sử dụng, phạm vi tác động hoặc khi danh mục hệ thống rủi ro cao được cập nhật, tổ chức, cá nhân có trách nhiệm thực hiện rà soát và tái phân loại theo hướng dẫn của cơ quan có thẩm quyền.
- Cáchệthống trí tuệ nhân tạo thuộc nhóm rủi ro không chấp nhận được bị nghiêm cấm phát triển
Các hệ thống trí tuệ nhân tạo thuộc nhóm rủi ro không chấp nhận được bị cấm đưa ra thị trường hoặc đưa vào sử dụng dưới bất kỳ hình thức nào. Các hệ thống trí tuệ nhân tạo rủi ro không chấp nhận được bao gồm các hệ thống trí tuệ nhân tạo để thực hiện các hành vi vi phạm pháp luật nghiêm cấm và các trường hợp sau đây:
- a) Thaotúngnhận thức, hành vi của con người một cách có chủ đích nhằm làm mất khả năng tự chủ dẫn đến tổn hại về thể chất hoặc tinh thần;
- b)Hệthống trí tuệ nhân tạo được sử dụng để chấm điểm tín nhiệm xã hội của cá nhân bởi các cơ quan nhà nước hoặc tổ chức, doanh nghiệp, dẫn đến việc đối xử bất lợi hoặc không công bằng trong các bối cảnh xã hội không liên quan
- c) Lợidụngđiểm yếu của nhóm người cụ thể theo tuổi tác, khuyết tật, hoàn cảnh kinh tế – xã hội để tác động hành vi theo hướng gây tổn hại cho chính họ hoặc người khác;
- d)Xâydựng, khai thác cơ sở dữ liệu nhận dạng khuôn mặt quy mô lớn bằng việc thu thập không có chủ đích hình ảnh khuôn mặt từ internet hoặc hệ thống camera giám sát một cách trái pháp luật;
- e)Sảnxuất, phổ biến nội dung giả mạo do các hệ thống trí tuệ nhân tạo tạo ra có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, an ninh quốc gia;
- f)Pháttriển hoặc sử dụng hệ thống trí tuệ nhân tạo nhằm chống phá Nhà nước Cộng hòa Xã hội Chủ nghĩa Việt Nam.
- Cơchế quản lý hệ thống rủi ro cao và rủi ro trung bình
Đối với hệ thống trí tuệ nhân tạo có rủi ro cao, trước khi lưu hành hoặc đưa vào sử dụng hoặc khi có thay đổi đáng kể trong quá trình vận hành, phải thực hiện đánh giá sự phù hợp theo quy định tại Điều 18 của Dự thảo Luật trí tuệ nhân tạo, đồng thời chịu sự thanh tra, kiểm tra của cơ quan nhà nước có thẩm quyền trong quá trình hoạt động.
Dự thảo Luật trí tuệ nhân tạo cũng đề xuất hai hình thức đánh giá sự phù hợp của hệ thống trí tuệ nhân tạo rủi ro cao, gồm:
- a)Chứngnhận sự phù hợp trước khi lưu hành hoặc đưa vào sử dụng: Tổ chức được chỉ định hoặc thừa nhận thực hiện đánh giá sự phù hợp và cấp chứng nhận;
- b)Giámsát sự phù hợp sau khi lưu hành hoặc đưa vào sử dụng: Nhà cung cấp tự thực hiện đánh giá sự phù hợp và chịu trách nhiệm trước pháp luật về tính chính xác, trung thực của kết quả đánh giá. Tổ chức, cá nhân có hệ thống đã được đánh giá phù hợp có trách nhiệm duy trì sự phù hợp trong suốt quá trình cung cấp, triển khai. Cơ quan có thẩm quyền có quyền đình chỉ hoặc thu hồi chứng nhận, dấu hợp quy khi phát hiện hệ thống không còn đáp ứng các yêu cầu hoặc có vi phạm.
Nhà cung cấp và bên triển khai hệ thống trí tuệ nhân tạo có nghĩa vụ thực hiện đăng ký hệ thống trên Cổng thông tin điện tử một cửa về trí tuệ nhân tạo trước khi đưa vào sử dụng hoặc ra thị trường.
Ngoài ra, Nhà cung cấp hệ thống trí tuệ nhân tạo có rủi ro cao phải thiết lập cơ chế kỹ thuật tự động ghi nhật ký hoạt động của hệ thống để phục vụ truy vết, đánh giá an toàn, kiểm định định kỳ, xác định nguyên nhân sự cố và phân định trách nhiệm.
Đối với hệ thống trí tuệ nhân tạo rủi ro trung bình, tổ chức, cá nhân triển khai hệ thống phải tuân thủ quy định về minh bạch, gắn nhãn và các nghĩa vụ chung quy định tại Điều 12 của Dự thảo. Nhà nước áp dụng cơ chế kiểm tra, giám sát đối với hệ thống trí tuệ nhân tạo rủi ro trung bình. Ngoài ram doanh nghiệp, tổ chức nước ngoài có hệ thống trí tuệ nhân tạo rủi ro trung bình cung cấp cho người sử dụng tại Việt Nam phải chỉ định đại diện pháp lý hoặc đầu mối liên hệ tại Việt Nam để thực hiện nghĩa vụ phối hợp, báo cáo và chịu trách nhiệm pháp lý theo quy định của Luật này.
Kết luận
Dự thảo Luật trí tuệ nhân tạo đầu tiên của Việt Nam đã thiết lập một khuôn khổ pháp lý dựa trên phân loại rủi ro, từ nghiêm cấm các hệ thống gây hại không thể chấp nhận được, đến việc áp dụng các cơ chế tự phân loại và đánh giá sự phù hợp cho hệ thống trí tuệ nhân tạo rủi ro cao và trung bình. Những quy định này thể hiện cam kết của Việt Nam trong việc kiểm soát và thúc đẩy sự phát triển trí tuệ nhân tạo một cách có trách nhiệm, đảm bảo tính an toàn, minh bạch, đồng thời định vị quốc gia là điểm đến hấp dẫn cho đổi mới công nghệ.


