• Các nhà nghiên cứu từ DeepSeek, Alibaba và các trường đại học cho biết các quy định về AI của Trung Quốc đang đi đúng hướng.
  • Nhưng họ vẫn thấy hồ sơ không rõ ràng và sự giám sát yếu kém đối với các mô hình có rủi ro cao.

Mối lo ngại về sự an toàn của các hệ thống AI mạnh mẽ đang gia tăng ở Trung Quốc và một bài báo học thuật gần đây đã tăng thêm sức nặng cho cuộc thảo luận, theo Bưu điện buổi sáng Nam Trung Quốc. Bài báo được xuất bản năm Khoa họcquy tụ các chuyên gia và nhà nghiên cứu pháp lý từ DeepSeek, Alibaba và một số trường đại học. Phát hiện của họ cho thấy Trung Quốc đã đạt được tiến bộ trong quản trị AI, nhưng những lỗ hổng trong hệ thống hiện tại vẫn cần được chú ý.

Các tác giả cho biết Trung Quốc đã tạo ra một môi trường khuyến khích nghiên cứu AI và phát triển mở, tuy nhiên nhiều quy tắc hiện hành tạo thành sự chắp vá phức tạp. Họ cho rằng cách tiếp cận này hiện có hiệu quả nhưng cần có hướng dẫn rõ ràng hơn, đặc biệt là khi ngày càng có nhiều mô hình AI có rủi ro cao xuất hiện. Một lĩnh vực họ nhấn mạnh là thủ tục nộp hồ sơ cho các mô hình AI. Các nhà phát triển phải gửi thông tin trước khi triển khai nhưng những lần bị từ chối thường thiếu phản hồi hữu ích.

Nhóm cũng chỉ ra những rủi ro liên quan đến các mô hình “biên giới”, một thuật ngữ được sử dụng cho các hệ thống có khả năng tiên tiến và có khả năng gây tổn hại nghiêm trọng nếu sử dụng sai mục đích. Họ cảnh báo rằng các miễn trừ rộng rãi đối với tác phẩm nguồn mở có thể nhường chỗ cho hoạt động nguy hiểm. Các tác giả viết: “Chúng tôi cho rằng các công ty AI hàng đầu của Trung Quốc cần phải minh bạch hơn nữa và dựa trên bằng chứng về nỗ lực của họ trong việc quản lý các mô hình tiên phong”.

Tác giả chính của bài báo là Zhu Yue, trợ lý giáo sư luật tại Đại học Tongji và là cựu nhà nghiên cứu tại ByteDance. Những người ký tên khác vào bài báo bao gồm hai người đóng góp trong ngành: Wu Shaoqing, người lãnh đạo quản trị AI tại DeepSeek và Fu Hongyu từ bộ phận nghiên cứu của Alibaba, AliResearch. Wu đã tích cực tham gia các cuộc Chat công khai về giám sát AI và phát biểu tại một hội thảo ở Hàng Châu vào tháng 9 năm ngoái về các biện pháp bảo vệ đạo đức trong các hệ thống nguồn mở.

Một trong những đồng tác giả, Zhang Linghan thuộc Đại học Khoa học Chính trị và Luật Trung Quốc, cho biết bài báo nhằm mục đích cung cấp cho độc giả nước ngoài cái nhìn rõ ràng hơn về cách tiếp cận “thực tế” của Trung Quốc đối với quản trị AI. Bà cho biết cách tiếp cận này thường bị hiểu lầm ở nước ngoài. Zhang, người đã giúp soạn thảo đề xuất trước đó về luật AI quốc gia, cho biết: “Trung Quốc đã thực sự chuyển đổi từ người đi sau thành người dẫn đầu trong quản trị AI, điều này rất có ý nghĩa”.

Các tác giả mô tả hệ thống cai trị hiện tại của Trung Quốc được xây dựng trên nhiều trụ cột. Chúng bao gồm miễn trừ đối với các công cụ nguồn mở, bảo vệ nghiên cứu khoa học được hỗ trợ bởi AI và triển khai từng bước các yêu cầu mới để cơ quan quản lý có thể điều chỉnh khi công nghệ thay đổi. Các tòa án cũng đã xử lý các vụ việc liên quan đến AI nhanh chóng hơn, điều mà các tác giả cho rằng đó là dấu hiệu cho thấy hệ thống pháp luật đang thích ứng.

Ngay cả với những phát triển này, tờ báo cho biết Trung Quốc vẫn thiếu một luật AI quốc gia duy nhất. Hai phiên bản dự thảo được các học giả pháp lý lưu hành phác thảo cách các công ty và người dùng có thể phải chịu trách nhiệm khi các công cụ AI gây hại. Nhưng nếu không được áp dụng chính thức, quy định của nước này vẫn là sự kết hợp của nhiều biện pháp chồng chéo.

Nhu cầu giám sát mạnh mẽ hơn cũng được phản ánh trong một nghiên cứu riêng biệt của Concordia AI, một công ty tư vấn ở Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho biết các hệ thống của Trung Quốc hiện có mức độ rủi ro biên giới tương tự như của Hoa Kỳ. Báo cáo cảnh báo rằng những mô hình này có thể trở thành mục tiêu cho mục đích sử dụng có mục đích xấu hoặc hoạt động theo cách thoát khỏi sự kiểm soát của con người. Fang Liang, người đứng đầu quản lý và an toàn AI tại Concordia AI cho biết: “Chúng tôi hy vọng những phát hiện của chúng tôi có thể hỗ trợ các công ty này khi họ cải thiện độ an toàn cho các mô hình của mình”.

Mô hình R1 của DeepSeek đã thu hút sự quan tâm đặc biệt. Nghiên cứu đã cho nó điểm rủi ro cao nhất về khả năng hỗ trợ các cuộc tấn công mạng, dựa trên các thử nghiệm mà công ty đã thực hiện vào đầu năm nay.

Fang cho biết các tác giả của Khoa học bài viết mô tả “một logic quản trị khác với cách tiếp cận được áp dụng ở Châu Âu và Hoa Kỳ.” Ông cho biết ý tưởng về “sự cởi mở” của AI được coi ở Trung Quốc như một biện pháp an toàn chứ không phải là một nguồn rủi ro.

các Khoa học Bài báo gợi ý rằng khi khả năng AI của Trung Quốc mở rộng, khung pháp lý của nước này cũng phải phát triển theo. Các tác giả cho biết các công ty mạnh nhất của đất nước đã định hình hoạt động nghiên cứu toàn cầu thông qua các công cụ nguồn mở và các mô hình lớn của họ. Nhưng đi kèm với ảnh hưởng này là trách nhiệm và bài báo kêu gọi cả ngành và cơ quan quản lý tập trung hơn vào những rủi ro đi kèm với sự tiến bộ nhanh chóng.

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Hãy xem AI & Big Data Expo diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này là một phần của TechEx và được tổ chức cùng với các sự kiện công nghệ hàng đầu khác, hãy nhấp vào đây để biết thêm thông tin.

Tin tức AI được cung cấp bởi TechForge Media. Khám phá các sự kiện và hội thảo trực tuyến về công nghệ doanh nghiệp sắp tới khác tại đây.

Chia sẻ.
Để lại bình luận