中国、AI標準化へ技術委員会を設立
安全性と促進のバランス目指す
中国工業情報化部は13日、AI(人工知能)分野の業界標準の策定・改定を担当する技術委員会を設置したと発表した。大規模言語モデル(LLM)やデータセット、AIリスク評価などの業界基準の策定に取り組み、AIがもたらすリスクを低減すると同時に、産業発展への導入促進のバランスを取ることを目指す。
技術委員会はハイテク大手の百度(バイドゥ)や北京大学など41人のメンバーで構成され、事務局は中国国営の通信分野の専門シンクタンク、中国信息通信研究院(CAICT)に設ける。主にAIの評価とテスト、運用と保守、データセット、基本ハードウエア、ソフトウエアプラットフォーム、大規模言語モデル(LLM)、アプリケーションの成熟度、アプリケーション開発管理、AIリスクの分野における業界標準の策定と改定を担当する。
中国のAI技術は、工業生産、AIを搭載したヒューマノイドロボット、スマートフォンや自動車などの製品への導入が加速している。
一方で、中国政府は2023年7月、「ChatGPT」と同様の生成AIサービスを規制するため、「人工知能生成サービス管理暫定弁法」を発表。情報セキュリティー、個人データ保護、知的財産権、科学技術革新に関して規制の対象とした。
中国科学技術部監督局も同年12月、「責任ある研究のための行動規範に関するガイドライン(2023年版)」を発表し、生成型AIを申告資料の直接生成に用いるべきではないこと、生成型AIを成果の共同完成物として記載すべきではないことを求めるとともに、研究者は科学技術倫理の要件を研究活動の全過程に組み込むべきであるとしている。