
在数字化浪潮席卷各行各业的今天,人工智能技术正以前所未有的深度嵌入用户终端设备、应用程序与服务平台之中。从智能推荐到行为分析,从语音识别到情感计算,AI能力的跃升极大提升了产品体验与运营效率。然而,当技术演进的速度远超制度建设与伦理共识的沉淀节奏,一些隐蔽却危险的操作便悄然浮出水面——未经用户明示同意即默认启用AI驱动的行为追踪功能,已非个别现象,而成为亟待正视的系统性风险。
《中华人民共和国个人信息保护法》(以下简称《个保法》)自2021年11月1日起施行,其核心原则之一即是“告知—同意”规则。第二十三条明确规定:“处理个人信息应当取得个人的同意……该同意应当由个人在充分知情的前提下自愿、明确作出。”尤为关键的是,第四十四条进一步强调:个人对其个人信息的处理享有知情权、决定权,有权限制或拒绝他人对其个人信息进行处理。这意味着,任何以“优化服务”“提升体验”为名绕过用户真实意愿、模糊化授权边界、甚至通过默认勾选、捆绑授权、晦涩条款等方式变相获取“伪同意”的做法,均已实质性违背法律本意。
现实中,部分App在安装首屏即静默激活摄像头/麦克风权限,后台持续采集用户点击热区、滑动轨迹、停留时长、页面跳转路径等细粒度交互数据,并交由AI模型实时建模分析用户意图与偏好;某些智能硬件厂商在用户协议中以数百字嵌套条款轻描淡写提及“可能使用AI算法分析您的使用习惯”,却未单独列出AI追踪的具体目的、方式、范围及存储期限;更有甚者,将“开启AI助手”与“同意行为追踪”强制绑定,使用户在功能刚需下被迫让渡隐私权益。这些操作看似技术中立,实则构成对《个保法》第二十八条所界定的“敏感个人信息处理规则”的规避——当行为数据经AI聚合分析后可精准推断用户行踪轨迹、健康状况、性取向、宗教信仰等隐含信息时,其已具备敏感属性,依法必须取得单独同意。
更值得警惕的是,AI行为追踪的“黑箱性”加剧了合规失焦。传统数据收集尚可依托日志审计追溯,而基于深度学习的实时行为建模往往运行于云端推理引擎,用户既无法感知数据流向,亦难以验证模型是否越界使用其信息。中国信息安全测评中心2023年发布的《AI应用隐私风险评估报告》指出,在抽样的127款主流消费类App中,61%存在AI相关数据处理未在隐私政策中专项说明的问题,其中44%未提供关闭AI追踪功能的有效路径。这种“技术不可见性+授权不透明性+退出不可及性”的三重叠加,使用户的法定权利在事实上被架空。
法律的生命在于实施。2023年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,明确要求提供者“采取有效措施防范未成年人用户过度依赖或沉迷”,并“尊重社会公德和伦理道德”。这并非仅指向内容安全,更深层指向AI系统与用户关系的再定义——技术不应是单向度的凝视者,而应是双向尊重的协作者。北京互联网法院在2024年初审结的一起典型案例中,判决某短视频平台因未就AI驱动的“沉浸式推荐算法”向用户提供清晰、独立的授权选项,构成对个人信息自主决定权的侵害,需承担停止侵权、删除数据及赔偿责任。这一判例释放出明确信号:司法机关正以实质审查标准穿透技术表象,回归权利本位。
守护数字时代的个体尊严,不能仅靠企业自律,更需监管刚性、司法亮剑与公众觉醒的协同发力。用户有权追问:我的每一次滑动,是否真被当作“训练数据”而非“被观察对象”?我的犹豫与迟疑,是否被AI标记为“决策弱点”而非“思考过程”?当技术承诺带来便利,它也必须同步交付透明、可控与尊重。唯有将“明确授权”真正刻入AI系统的启动序列,而非敷衍于冗长协议末尾,我们才能确信:那束照亮未来的智能之光,始终映照的是人的主体性,而非将其简化为可被无限解析的数据客体。
Copyright © 2024-2026