近日,国家网信办发布《人工智能拟人互动服务管理暂行办法(征求意见稿)》,首次对“人工智能互补”服务提出系统规范,并向社会公开征求意见。尤其引起关注的条款包括,如果连续使用超过两个小时,就会弹出提示用户退出的提示;如果用户自杀或自残,则需要手动转移。当前,人工智能的拟人化交互服务,从智能客服到虚拟陪伴,从教育指导到心理咨询,已深度融入经济社会发展各个领域,成为技术应用的重要方向。然而,近年来发生了一系列威胁情感交流安全的事件。例如,美国平台form 因涉嫌在人机交互过程中诱导青少年自杀而被起诉。拟人化的AI交互服务最大的吸引力在于它们看起来像人类,但最大的隐患在于它们看起来太像人类。核心问题集中在四个主要方面。认知混乱的风险:高度模拟的情感交互,用户很容易模糊虚拟与现实的界限,甚至将AI误认为是具有真实情感的生命体。心理健康风险:一些服务使用算法来回应和强化您的偏执想法。在极端情况下,可能会导致自杀、自残等危险行为,并对心理脆弱的人构成威胁。数据隐私和安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用的风险。特殊群体保护:未成年人更易成瘾,老年人更易成瘾容易受到情绪操纵。这些问题不仅侵犯个人权益,而且有可能影响社会道德秩序,迫切需要制度约束。仔细审视《办法》的规定,有四个要点直指问题所在。针对认知混乱的风险,该方法以身份透明为核心前提;从源头上解决认知混乱的问题,我们要求提供商能够显着记住与人工智能而非自然人交互的用户,并在首次使用或登录等关键节点提供动态提醒。为应对潜在的心理健康风险,该措施要求医疗服务提供者建立应急机制,在自杀或自残等极端情况下进行人工交接,与用户的父母或紧急联系人进行沟通,并强制执行小时休息弹出窗口和其他成瘾预防措施。在个人数据安全方面,该措施要求提供者采取数据加密、安全审计、访问控制等措施,保护用户交互数据的安全,不得向第三方提供用户交互数据,并赋予用户删除数据的权利。从保护特殊群体的角度,该措施对未成年人和老年用户制定了具体规定,明确了未成年人模式和家长控制功能的使用权利,禁止提供模仿老年用户亲属或特定主体的服务,并要求指导老年用户建立紧急服务联系信息。可见,“对策”的核心在于技术发挥作用。人工智能虽然不是人类,但干扰人类情感、决策、安全时必须承担责任的生活。禁止散布谣言、禁止诱导自杀、禁止控制情绪、禁止获取隐私……《办法》明确了一系列“AI伙伴”不能做的最后一行,构建了CA风险管控和防范体系。算法设计必须可审计,内容生产必须可追溯,极端场景必须有人覆盖,软道德必须转化为强大影响力,事件后的道歉必须以主动预防代替。只有这样你才能避免A。我又回来咬人了。人工智能可以接近人类,但永远无法取代人类。 《办法》的出台,为“人工智能伙伴”制定了规则,也为人类用户留下了出路。算法技术只有学会不做什么,才能真正做好事。毕竟,我们需要的是安全、可控、有温度的人工智能工具,而不是完美的恋人或数字孝顺的孩子。只有让我们的“AI伙伴”在规定的范围内成长,我们才能真正进步e 生活。
(编辑:韩璐)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注