(兩會訪談)全國政協委員張毅:AI熱潮下,完善人工智能算法治理體系
視頻:【兩會30秒】張毅委員:可考慮用人工智能來監管人工智能來源:中國新聞網
中新網上海3月4日電 (范宇斌)2024年全國兩會召開在即,全國政協委員、金杜律師事務所高級合伙人張毅接受中新網記者專訪時表示,算法技術全面步入應用階段,但同時也引發了一系列諸如算法歧視、算法黑箱、信息繭房、算法霸權等倫理和法律問題,要進一步完善人工智能算法治理體系。
2022年11月,OpenAI發布ChatGPT,目前公開信息已經迭代到GPT-4。2024年2月,OpenAI發布了文生視頻大模型Sora,引發全球AI熱潮。如何更好監管人工智能算法,監管手段和能力如何相應提升,對中國相關產業的發展和治理能力現代化至關重要。
張毅在調研中發現,已出臺的算法管理規定存在一些問題,存在監管競合或真空,算法侵害的認定和維權困難。此外,生成式人工智能技術(AIGC)帶來新的挑戰。
張毅談及,當前,相關管理規定主要為部門規章、規范性文件和推薦性國家標準,法律效力較低。法律責任上多為框架化、倡導性原則,導致算法治理內容與違法侵權間未形成充分對應關系。實踐中主要通過算法備案和生成式人工智能(大模型)備案兩項制度作為問責起點,但大模型備案尚在“實驗期”,缺乏成熟規則指引;且受限于部門規章的效力層級,未形成算法問責完整架構。
他說,算法提供者擁有信息資源和技術優勢,被侵害對象面臨“理解難、取證難”問題,而執法者也面臨“認定難”問題。
談及AIGC帶來新的挑戰,張毅表示,AIGC大模型具有基于海量數據進行自學習特性,迭代快,其在垂直類領域應用也在快速多樣化,難以為現有監管體系、技術或工具所覆蓋,從而產生監管真空或失焦的情況。
對此,張毅建議盡快推進人工智能法的出臺,構建人工智能算法治理體系,彌補監管體系空白。同時,可考慮通過針對性的法規予以補充規范。
他認為,可以針對產業鏈上各主體,采取權責相統一原則,根據不同主體對于人工智能系統的控制力度來加諸相應的合規義務。將人工智能和算法技術按風險等級進行劃分并采取不同監管措施,并設置事前、事中和事后全生命周期監管措施義務。
張毅建議,在保障用戶權利方面,推進算法服務商以個人能夠理解的方式披露算法風險與可能產生的損害、算法運行步驟與決策結果間關系等運行規則。
此外,還可拓展算法侵害行為維權路徑與責任模式,增強用戶維權力量,以及探索人工智能算法領域的民事公益訴訟制度。(完)

- 專題:2024全國兩會
國內新聞精選:
- 2025年06月19日 16:53:02
- 2025年06月19日 11:23:34
- 2025年06月19日 11:00:32
- 2025年06月18日 19:04:20
- 2025年06月18日 13:30:47
- 2025年06月18日 10:55:35
- 2025年06月18日 10:32:45
- 2025年06月18日 09:45:44
- 2025年06月18日 08:02:00
- 2025年06月17日 21:10:09