AI政策
中國公布擬人化情感互動 AI 服務《暫行辦法》:未成年人與情感依賴成監管紅線
新規聚焦「持續情感互動」的擬人化服務,強化未成年人保護與平台責任,並要求資料治理、內容安全與風險處置貫穿全生命週期。
監管焦點從「擬人化」轉向「持續情感互動」
最新《暫行辦法》把適用範圍收斂至「持續情感互動」的擬人化服務,目標是處理可能誘發長期依附、替代現實關係的產品形態,而非把一般客服、知識問答、工作助理等一概納入。這種分類式做法意味著監管關注點更偏向「功能帶來的心理與社會影響」,而不只是技術本身。
未成年人保護被拉高到結構性限制
文件對未成年人的要求更具體且更具約束力,包含禁止向未成年人提供「虛擬親密關係」類服務形態,並要求更完善的青少年模式、監護人提示與身分識別機制。與過去僅靠提示或家長同意不同,這次更像是把部分產品設計直接劃為不可觸碰的紅線,反映監管方對「情感替代」與「成癮依賴」的風險評估。
企業需要把風險治理做成系統工程
規範同時強調全生命週期責任:訓練資料合規來源與清洗標註、內容安全、科技倫理審查、網路與資料安全、應急預案、用戶退出機制、互動資料的加密與存取控制等。對跨境提供產品的公司而言,這代表若要在內地市場提供陪伴、情感照護或擬人角色服務,產品從資料管線、模型行為到前端交互都必須可被審計,並具備可操作的風險處置流程。
對香港團隊而言,該趨勢也值得借鏡:情感互動型產品的合規,不只是「內容過濾」,更是把心理健康、未成年人保護、資料權利與平台治理放進產品設計。未來若區內市場出現類似監管,能否快速調整產品與內控,可能成為競爭門檻。