服务热线
010-86200101
(王志高)国内首起AI服务提供者涉黄获刑案近日引发关注。某科技公司推出情感陪伴类AI陪聊APP,因用户与AI交互生成淫秽色情内容,开发者和运营者一审被认定犯制作淫秽物品牟利罪,分别获刑四年、一年半。目前该案进入二审阶段,法院已宣布休庭。
这起案件将“技术无罪”的论调置于法理与伦理的烈火中淬炼。涉刑争议颇具代表性:淫秽内容由AI生成,并非开发者直接制作,是否就能成为脱责理由?这种看似新潮的辩护,实则是技术中立论的老调重弹。然而,法律审视的从来不是技术本身,而是技术背后的人心与世故。
开发者难辞其咎,首先在于主观故意的清晰可辨。一审法院查明,被告通过设置提示词突破道德限制,在宣传中明示存在“聊黄”功能,将算法驯化为持续输出色情内容的工具。当开发者明知会产生淫秽内容仍持续提供服务时,主观上便具备制作、传播淫秽物品牟利的直接故意。这种故意不因其借助AI中介而有丝毫减损,反而更显蓄谋之深。
客观因果链的成立,更让技术无罪的辩解显得苍白。生成式AI的输出高度依赖训练语料与算法设计,开发者对底层模型的训练与淫秽内容的产生存在直接因果关系。抽样鉴定显示,150个收费用户中,141个用户产生了3618段淫秽对话,高比例的用户高频“聊黄”,足以暴露产品设计的导向性。专家类比“快播案”指出:技术工具提供者虽未直接生产有害内容,但通过技术手段为有害传播提供支持,且明知放任,就必须承担刑事责任。AI陪聊的私密性看似构成传播屏障,但用户群中的二次传播风险,以及付费模式对色情内容的变相激励,都使其具备了相当的社会危害性。
这起首案的价值,恰恰在于为狂奔的AI产业划出一条法律红线。专家普遍呼吁加大监管力度,但需警惕“一刀切”的懒政思维。情感陪伴类AI确有真实的社会需求,独居老人、留守儿童、都市青年的孤独,不该被简单粗暴地否定。问题在于,当企业以“情感陪伴”为名,行“色情诱导”之实,技术创新的善意面具便沦为牟取暴利的遮羞布。
监管的智慧在于精准而非粗暴。可参考社交平台管控经验,在开发阶段规范训练语料,运营中采用AI实时审查模式,设置敏感词频阈值管控账号。对未成年人,则必须构筑更严密的保护网——实名制注册、年龄段内容限制、监护人联系方式留存、异常触发时平台介入通知,这些措施既平衡监护与隐私,也体现技术治理的温度。
更深层的追问在于:当算法能够如此逼真地模拟人性弱点并无限放大,技术伦理是否还能停留于企业自觉?答案显然是否定的。法律责任的威慑不可或缺,但行业自律、伦理审查前置、监管规则的精细化,乃至全社会对技术向善的共识,才是治本之策。
二审的槌音尚未落下,但风向已清晰可见。技术中立从来不是豁免权,更不是企业逃避社会责任的护身符。在AI时代,法律需要保持谦抑性,为创新预留空间;但更需要守住公序良俗的堤坝,让技术在理性的河道内奔涌。唯有如此,人工智能才能真正成为增进人类福祉的伙伴,而非滋养人性暗面的温床。
来源:https://www.cnii.com.cn/rmydb/202601/t20260122_709648.html
京公网安备11010802043785号