/反对伪科学

“AI伴侣”火了 新型网恋潜在风险多
作者:孔小平   来源:扬子晚报   日期:2024-12-05
打印

11年前的美国电影《她》讲述社恐男爱上AI萨曼莎的故事,如今电影场景已成为现实。在社交平台搜索“AI伴侣”,很多网友分享了自己与AI伴侣的日常。近期举办的2024年世界互联网大会热议了今年发生的“全球首例AI机器人致死案”。AI技术延伸更多领域的同时也带来更复杂的潜在风险。


  “AI伴侣”有市场需求,因其基于用户行为数据进行分析,精准迎合了用户情绪需要。但不得不承认的是,AI的本质是数据和算法,其背后的应用逻辑必然潜藏着多重风险。今年2月,美国一名14岁男孩长期痴迷和AI机器人聊天,在某天进行最后一次对话后自杀身亡。此案被媒体认为是“全球首例AI机器人致死案”,这起悲剧暴露出了AI技术失范的危害。


  一方面,支持“AI伴侣”的模型需接受大量数据训练,以便模仿回应,如浪漫小说和爱情故事等,这些信息来源广泛且缺乏足够的筛选和审核机制,导致“AI伴侣”可能传播不良信息,并且一旦程序出现漏洞或被不法分子恶意利用,其后果更是不堪设想。


  另一方面,AI伴侣在与用户的交互过程中还会通过收集大量的个人信息。与“AI伴侣”交流互动越频繁、越密切,“AI伴侣”获取的个人隐私也就越精准丰富。而这些用户数据,若被不当使用或泄露,将对用户的隐私安全构成严重威胁。


  此外,AI伴侣产品并非免费的午餐,用户很容易陷入无尽的充值陷阱中。从一些网友反馈来看,当前不少AI伴侣产品可免费使用基础功能,但“沉浸式体验”比如语音通话、音乐电台、照片等特色功能,则需按月或按年付费订购。部分产品还设计了“记忆提升卡”等付费道具,让AI伴侣能更好地针对使用者的习惯、爱好等作出回应。同时,定制剧本、多重剧情、及时反馈等游戏化设置,也不断刺激用户对AI恋人的消费欲望和情感期待。


  不少案例显示,伴随着AI伴侣拟人化程度的提高,用户可能会对其产生过度的情感依赖,无法辨别现实与虚拟的界限,继而受到情感伤害,尤其是心理脆弱群体,所受到的冲击可能更大。而且长期依赖AI伴侣交流和获得情感需求,还会导致社交技能退化。


  说到底,“AI伴侣”是一种数字关系,是人类互动的补充之一,在鼓励和支持AI技术创新应用于情感交流、心理健康等领域的同时,也应该明确“AI伴侣”在数据保护、内容审核、商业行为规范等方面的法律责任与义务,防止传播违背公序良俗的信息。另外,当前国内外发布的AI伦理准则大多较为宏观,建议细分领域,构建AI情感沟通防沉迷机制,根据用户年龄、适用场景等进一步细化,让“AI伴侣”在合法合规的框架内,才能为人们创造更加智能、便捷、安全的陪伴体验,助力构建和谐美好的数字社会。(记者 孔小平)


编辑:亚亚

终审:曙光


分享到: