
在数字化浪潮席卷全球的今天,人工智能正以前所未有的深度介入人类社会的运行逻辑。从电商推荐到信贷评估,从招聘筛选到公共治安预警,AI驱动的行为预测系统已悄然嵌入日常生活的毛细血管。然而,当算法在未经用户明示同意的情况下,悄然收集、整合、分析其行为数据并生成预测结论时,这看似高效的“智能服务”,实则正踩踏一条日益清晰的法律红线——它不仅挑战《个人信息保护法》的核心原则,更动摇了数字时代人格尊严与自主权的根基。
我国《个人信息保护法》第二十三条明确规定:“个人信息处理者向其他个人信息处理者提供其处理的个人信息的,应当向个人告知接收方的名称或者姓名、联系方式、处理目的、处理方式和个人信息的种类,并取得个人的单独同意。”而行为预测本质上并非对原始数据的简单存储或内部使用,而是通过多源数据融合、模型训练与推断,生成关于个体未来倾向、偏好甚至风险等级的衍生性判断。这一过程往往涉及敏感信息的间接识别(如通过消费频次推断健康状况)、自动化决策的实质性影响(如因预测信用风险被拒贷),以及数据跨场景流转(如将社交平台行为数据用于保险定价)。若未以清晰、易懂、可撤回的方式获得用户的单独、明确、知情同意,即构成对法律强制性规定的直接违反。
更值得警惕的是,此类“默许式采集+黑箱式预测”的操作模式,常以“提升用户体验”“优化服务效率”为名,行规避法定义务之实。实践中,大量APP的隐私政策冗长晦涩,将行为预测功能混杂于数百条条款之中;所谓“默认勾选”的授权机制,实质剥夺了用户真实的决定权;更有甚者,通过设备传感器、Wi-Fi探针、SDK嵌套等隐蔽方式持续抓取位置、停留时长、应用切换等行为痕迹,用户对此浑然不觉。这种系统性绕过同意机制的做法,已远超技术中立范畴,而演变为对法律底线的试探与侵蚀。
法律后果亦日趋刚性。依据《个人信息保护法》第六十六条,违法处理个人信息且情节严重的,最高可处五千万元以下或上一年度营业额百分之五以下罚款,并可责令暂停相关业务、停业整顿、吊销许可。2023年某头部出行平台因未经同意利用用户行程数据训练司机接单预测模型,被网信部门处以2.8亿元罚款,即为典型警示。司法层面,多地法院已在判例中确认:未经单独同意的行为预测,导致用户遭受差别化待遇或精神困扰的,构成对人格权益的侵害,需承担民事赔偿责任。监管趋势亦愈发严格——国家网信办《生成式人工智能服务管理暂行办法》第十二条明确要求,“提供者应当对生成内容进行显著标识,并采取措施防止生成侵害他人权益的内容”,其中“他人权益”自然涵盖用户对其行为数据被预测、被定义、被干预的否定性权利。
归根结底,行为预测技术的价值,绝不能建立在对个体自主意志的消解之上。真正的智能,应是尊重用户作为数据主体的知情权、决定权、限制权与拒绝权;真正的效率,不应以牺牲法律确定性与人格尊严为代价。当算法试图提前“定义”一个人时,必须先经由这个人亲手点亮那盏名为“同意”的灯——这盏灯无法被默认开启,不可被技术绕过,更不容被商业逻辑熄灭。在法治轨道内驯服技术狂奔的惯性,不是为创新设障,而是为数字文明筑牢不可逾越的伦理堤坝与法律基石。唯有如此,我们才能确信:那些预测未来的代码,始终服务于人,而非凌驾于人之上。
Copyright © 2024-2026