Hệ thống pháp luật

Điều 43 Luật Công nghiệp công nghệ số 2025

Điều 43. Quản lý hệ thống trí tuệ nhân tạo

1. Hệ thống trí tuệ nhân tạo rủi ro cao là hệ thống trí tuệ nhân tạo trong một số trường hợp sử dụng có khả năng gây ra rủi ro, tổn hại nghiêm trọng tới sức khỏe con người, quyền con người, quyền công dân, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích công cộng và trật tự, an toàn xã hội, trừ một trong các trường hợp sau:

a) Nhằm thực hiện một hoặc một số công việc cụ thể, tác động trong phạm vi hẹp;

b) Nhằm hỗ trợ con người trong việc tối ưu hóa kết quả công việc;

c) Nhằm thực hiện kiểm ưa lỗi của các công việc do con người hoàn thành trước đó và không nhằm mục đích thay thế quyết định của con người.

2. Hệ thống trí tuệ nhân tạo tác động lớn là hệ thống trí tuệ nhân tạo được sử dụng đa mục đích, có số lượng người sử dụng lớn, số lượng tham số lớn, khối lượng dữ liệu lớn.

3. Yêu cầu quản lý đối với hệ thống trí tuệ nhân tạo quy định tại khoản 1 và khoản 2 Điều này bao gồm:

a) Yêu cầu kỹ thuật;

b) Minh bạch trong lưu trữ và cung cấp thông tin;

c) Quản trị dữ liệu;

d) Giám sát, kiểm tra;

đ) An toàn, an ninh mạng;

e) Yêu cầu cần thiết khác.

4. Chính phủ quy định chi tiết khoản 3 Điều này theo yêu cầu quản lý hệ thống trí tuệ nhân tạo của từng ngành, lĩnh vực.

Luật Công nghiệp công nghệ số 2025

  • Số hiệu: 71/2025/QH15
  • Loại văn bản: Luật
  • Ngày ban hành: 14/06/2025
  • Nơi ban hành: Quốc hội
  • Người ký: Trần Thanh Mẫn
  • Ngày công báo: Đang cập nhật
  • Số công báo: Đang cập nhật
  • Ngày hiệu lực: 01/01/2026
  • Tình trạng hiệu lực: Kiểm tra
MỤC LỤC VĂN BẢN
MỤC LỤC VĂN BẢN
HIỂN THỊ DANH SÁCH