Chuyên gia: Nắm bắt cơ hội từ Luật Trí tuệ nhân tạo mới ban hành

Minh Ngọc 11:20 | 30/12/2025 Doanh Nhân Việt Nam trên Doanh Nhân Việt Nam trên
Chia sẻ
Luật Trí tuệ nhân tạo đầu tiên của Việt Nam được thông qua vào ngày 10/12/2025 và sẽ có hiệu lực từ 1/3/2026, đánh dấu cột mốc quan trọng trong chiến lược quản trị số và đổi mới sáng tạo của đất nước.

 

Tính thời điểm và cần thiết của Luật Trí tuệ nhân tạo

Việt Nam đã trở thành một trong số ít quốc gia trên thế giới ban hành luật riêng về Trí tuệ nhân tạo, gồm 35 điều khoản và được xây dựng theo hướng “quản lý để phát triển”. Luật này nhằm mục đích tạo sự cân bằng giữa kiểm soát rủi ro và thúc đẩy đổi mới sáng tạo, phù hợp với các tiêu chuẩn toàn cầu, đồng thời bảo vệ lợi ích quốc gia.

Tiến sĩ Sreenivas Tirumala, giảng viên cấp cao ngành Công nghệ thông tin và An ninh mạng tại Đại học RMIT Việt Nam, nhận định rằng sự phát triển kinh tế nhanh chóng của đất nước tạo ra nhu cầu cấp thiết cần tích hợp trí tuệ nhân tạo (AI) vào các lĩnh vực nông nghiệp, sản xuất và dịch vụ. Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI cũng đã vạch ra hướng đi rõ ràng nhằm đưa Việt Nam trở thành trung tâm AI toàn cầu vào năm 2030.

Trong bối cảnh này, Luật Trí tuệ nhân tạo ra đời sẽ thúc đẩy niềm tin của nhà đầu tư. “Với tình hình đầu tư nước ngoài ngày càng tăng, sáng kiến ban hành luật về AI sẽ tăng cường niềm tin của nhà đầu tư nước ngoài vào cách xử lý dữ liệu và trách nhiệm pháp lý liên quan đến việc sử dụng AI tại Việt Nam. Luật Trí tuệ nhân tạo cũng đưa Việt Nam đi trước các nước ASEAN khác về mặt lập pháp”, Tiến sĩ Tirumala nhận định.

Tiến sĩ Jeff Nijsse, giảng viên cấp cao ngành Kỹ thuật phần mềm tại RMIT Việt Nam, nhấn mạnh vào tính thời điểm của luật này. Ông nói: “Luật chuyên biệt về AI là cần thiết để giải quyết cụ thể các mối đe dọa mới và cấp bách như deepfake và các hành vi thao túng bởi AI mà các luật hiện hành chưa đề cập đến. Luật Trí tuệ nhân tạo nhằm mục đích hợp nhất mọi thứ liên quan đến AI dưới một luật khung mới và giải quyết sự chồng chéo với các luật hiện hành như Luật Công nghiệp công nghệ số”.

 

 Luật Trí tuệ nhân tạo phân loại các hệ thống AI theo tác động tiềm tàng và mức độ rủi ro. (Hình: Pexels).

Cách tiếp cận dựa trên rủi ro: cân bằng giữa tuân thủ và tăng trưởng Luật Trí tuệ nhân tạo phân loại các hệ thống AI theo ba cấp độ rủi ro, thể hiện sự tương đồng với các mô hình pháp lý hàng đầu thế giới như Đạo luật AI của Liên minh châu Âu. Các hệ thống AI được phân loại dựa trên tác động tiềm tàng và mức độ rủi ro, kèm theo các nghĩa vụ pháp lý tương ứng.

  • Hệ thống có rủi ro cao là hệ thống có thể gây ra thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp, hoặc an ninh quốc gia (có thể kể đến như AI cho chẩn đoán y tế, dịch vụ tài chính, v.v.).
  •  Hệ thống có rủi ro trung bình là hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người dùng do người dùng không nhận biết được mình đang tương tác với hệ thống AI hoặc nội dung do AI tạo ra (nhiều loại chatbot có thể lấy làm ví dụ). 
  • Hệ thống có rủi ro thấp là các hệ thống không thuộc các trường hợp nêu trên. Các hệ thống rủi ro cao sẽ phải tuân thủ yêu cầu nghiêm ngặt hơn về dữ liệu, kiểm tra, giám sát và sự can thiệp của con người, trong khi các hệ thống rủi ro thấp sẽ chịu mức giám sát tối thiểu.

Tiến sĩ Nijsse cho rằng các nhà làm luật đã cố gắng để luật này không bị lỗi thời trong tương lai bằng cách tập trung vào đánh giá kết quả/tác động thay vì doanh nghiệp, mô hình hay sản phẩm AI cụ thể. Ông lưu ý rằng nỗ lực này sẽ giảm tác dụng theo thời gian vì rất khó tiên đoán được cách con người sử dụng công nghệ mới trong tương lai. “Luật thường có độ trễ hơn so với tốc độ đổi mới và đây là tính chất thường gặp chứ không phải là lỗi. Ví dụ, Luật Trí tuệ nhân tạo quy định rằng các hệ thống AI có tương tác trực tiếp với con người như chatbot có mức rủi ro trung bình. Tuy nhiên, chúng ta không biết liệu điều này sẽ hạn chế những lợi ích gì trong tương lai. Các doanh nghiệp có thể sẽ tránh các hệ thống AI có phân loại rủi ro trung bình hoặc cao”.

Tiến sĩ Tirumala thì nhấn mạnh vào thách thức tuân thủ khi luật có hiệu lực từ ngày 1/3/2026. Các hệ thống, thuộc các lĩnh vực y tế, giáo dục và tài chính được đưa vào hoạt động trước ngày luật có hiệu lực, sẽ có 18 tháng để đáp ứng các nghĩa vụ tuân thủ. “Đó là khoảng thời gian khá ngắn đối với doanh nghiệp nhỏ và vừa, đồng thời cũng là thách thức đối với doanh nghiệp sử dụng hệ thống AI có rủi ro cao. Cần xem xét nâng cao nhận thức về AI trong giới doanh nghiệp và cung cấp một quy trình tuân thủ đơn giản trước khi thực thi luật mới”, ông nhận định.

 Tiến sĩ Sreenivas Tirumala và Tiến sĩ Jeff Nijsse (Hình: RMIT).

Bức tranh tổng thể: cơ sở hạ tầng, nguồn nhân lực và các ưu đãi

Ngoài việc đưa ra các quy định, Luật Trí tuệ nhân tao còn đề ra kế hoạch đầy tham vọng về việc phát triển hạ tầng AI quốc gia với cơ sở dữ liệu quốc gia về hệ thống AI. Luật cũng đề xuất Quỹ Phát triển trí tuệ nhân tạo quốc gia để hỗ trợ các công ty khởi nghiệp và doanh nghiệp nhỏ và vừa, đồng thời cho phép thiết lập cơ chế thử nghiệm có kiểm soát dành cho các giải pháp AI nhạy cảm. Đáng chú ý, các công ty khởi nghiệp có thể tiếp cận phiếu hỗ trợ do Quỹ Phát triển trí tuệ nhân tạo cung cấp, nhằm tiếp cận hạ tầng tính toán có hiệu năng cao, trực tiếp cắt giảm chi phí nghiên cứu và phát triển.

Theo Tiến sĩ Nijsse, việc đào tạo các mô hình ngôn ngữ quy mô lớn mới đòi hỏi rất nhiều nguồn lực, và Việt Nam đang rất chú trọng đào tạo các mô hình nền tảng phục vụ lợi ích quốc gia. “Các công ty khởi nghiệp đang đào tạo mô hình ngôn ngữ tiếng Việt hoặc tập trung vào dữ liệu tiếng Việt có thể sử dụng phiếu hỗ trợ để truy cập vào những dịch vụ máy chủ ảo với bộ xử lý GPU do Viettel hay VNPT cung cấp. Điều này giúp giảm chi phí phát triển mô hình vốn khá cao và giữ dữ liệu ở trong nước”, Tiến sĩ Nijsse nói.

Trong khi đó, cơ chế thử nghiệm có kiểm soát (sandbox) có thể thúc đẩy đổi mới trong các lĩnh vực mà hành lang pháp lý chưa rõ ràng. “Một ví dụ là việc huấn luyện các mô hình AI bằng dữ liệu y tế để giúp tăng tốc quy trình làm việc và kiểm tra công việc của bác sĩ. Các luật hiện hành yêu cầu người đưa ra chẩn đoán phải là con người, vì vậy hành lang pháp lý sẽ trở nên mơ hồ khi bác sĩ bắt đầu tham khảo ý kiến của các mô hình AI”,

Tiến sĩ Nijsse nói. “Xe tự lái là một ví dụ khác. Luật giao thông hiện hành không tính đến người lái xe không phải con người. Xe có một phần tự động hóa được cho phép, nhưng các phương tiện tự hành hoàn toàn, tiên tiến hơn lại không được coi là an toàn. Những ứng dụng như vậy có thể được hưởng lợi từ sandbox dành cho AI”.

Phát triển nguồn nhân lực cũng là một ưu tiên lớn. Luật yêu cầu tích hợp kiến thức cơ bản về AI vào chương trình giáo dục phổ thông và khuyến khích các trường đại học mở rộng các chương trình liên quan đến AI, nhằm xây dựng lực lượng lao động có khả năng cạnh tranh cao. “Các trường đại học cần tích hợp các nguyên tắc cơ bản về AI và đạo đức AI vào chương trình giảng dạy của tất cả các ngành, không chỉ riêng các ngành công nghệ. Điều quan trọng là phải dạy cho sinh viên về việc ứng dụng AI một cách có trách nhiệm dựa trên các chuẩn mực xã hội và văn hóa lẫn các quy định và luật pháp hiện hành”, Tiến sĩ Tirumala nói.

“Hơn nữa, các trường cần xây dựng quan hệ đối tác với các tổ chức, doanh nghiệp để thực hiện các dự án học tập thực tiễn và các chương trình thực tập. Đây sẽ là chìa khóa để tạo ra lực lượng lao động sẵn sàng ứng dụng AI. Cách tiếp cận này đảm bảo sinh viên tốt nghiệp có thể đáp ứng các yêu cầu tuân thủ đồng thời thúc đẩy đổi mới”. Không chỉ là cột mốc pháp lý, Luật Trí tuệ nhân tạo ra đời còn thể hiện rõ quyết tâm của Việt Nam trong việc trở thành quốc gia dẫn đầu về AI. Bằng cách đưa ra quy định và các biện pháp khuyến khích đổi mới, Việt Nam đang đặt nền móng cho một hệ sinh thái AI cạnh tranh. Thách thức tiếp theo là khâu thực thi: biến chính sách thành hành động để các doanh nghiệp, người làm giáo dục và những nhà phát minh sáng kiến có thể dùng AI làm động lực thúc đẩy tăng trưởng bền vững.