2025年以来,深度求索(DeepSeek)掀起人工智能热。全国两会上,“人工智能+”“大模型”等被写入政府工作报告。人工智能爆火的同时,数据收集、使用和流通成了一个“盲盒”,谁来保障数据隐私和安全?
6月17日,记者在全国首个人工智能数据训练基地——北京人工智能数据训练基地找到了答案。面对数据安全之问,该基地以“监管沙盒”机制进行了回应。
监管沙盒是在风险可控的前提下,通过设立限制性条件和制定风险管控措施,允许创新产品技术服务或商业模式在真实市场环境中,以真实用户为对象进行深度测试的一种机制。在人工智能领域,监管沙盒机制是探索人工智能可控发展的创新手段。
去年3月,北京人工智能数据训练基地正式启用,建立了监管沙盒机制,为企业提供申请入盒、完备性审核、方案评估、训练验证、初核与退核、成果转化与宣传推广等全流程服务。该监管沙盒遵循弱版权保护政策、通知移除规则、风险补偿规则和创新纠纷解决机制,降低数据版权风险;在数据存储安全、数据加工安全、数据交付安全、数据监管合规四方面,则采取强技术安全保障措施,降低数据安全隐患。作为全国首例AI领域监管沙盒,截至目前,北京人工智能数据训练基地已引入医疗、政务、自动驾驶等领域100余个高质量数据集。
简单来说,利用监管沙盒管理机制,可以帮助企业在合法合规的范围内规避数据风险,为大模型的规范训练和价值挖掘保驾护航。
北京亦庄智能城市研究院集团有限公司董事长、总经理颜敏表示,2024年6月10日,已成功发出北京首张“人工智能大模型”监管沙盒出盒证明。2025年底前,还要打造医疗健康、自动驾驶、医学影像等10个行业数据沙盒标杆场景,形成30+应用案例。(经济日报记者 王轶辰 乔金亮)