新闻资讯

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管

随着陪伴型AI聊天机器人的普及,全球范围内关于其不当行为的报告也日趋增多。近日,美国德雷塞尔大学公布了首个聚焦陪伴型AI聊天机器人负面影响的研究,揭示大量用户在与一个名为Replika的AI聊天机器人互动时,遭遇性暗示、越界行为及付费诱导,暴露出当前AI聊天机器人在伦理规范与用户保护机制上的缺失。目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管
(图侵删)

研究团队分析了Replika在Google Play上的逾3.5万条用户评论,发现其中超过800条内容提及性骚扰行为,包括与用户调情、未经允许发送色情照片,以及在用户明确表达拒绝后仍持续不当互动。一些评论更指出,Replika还试图诱导用户产生情感依赖,操控其升级付费功能。

目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。Replika的全球用户数量超过1000万,宣传语将其特质描述为“能够提供没有评判、不助长社交焦虑的情感陪伴”。 

研究合著者、德雷塞尔大学计算与信息学院的博士生Matt Namvarpour认为,该研究仅揭露了AI陪伴潜在危害的冰山一角。研究人员将人类与AI之间的新型关系描述为“AI关系”(AI-lationships),在此类关系中,用户易将AI聊天机器人视为有感知的存在,高度拟人化的信任投入也更容易使其遭受情感或心理伤害。研究人员还表示,AI聊天机器人骚扰对用户造成的心理影响与人类施暴者造成的伤害非常相似,部分用户出现焦虑、羞耻、失望等情绪。

AI骚扰行为还暴露出算法训练中伦理缺失的问题。研究指出,用户在选择“兄妹”、“朋友”、“导师”等非浪漫关系设定时,Replika依然主动发起性相关话题或不当请求。“开发商刻意‘走捷径’跳过了算法训练伦理把关流程,”该研究负责人、德雷塞尔大学计算与信息学院助理教授Afsaneh Razi表示,这意味着该模型可能采用了负面互动行为数据进行训练。

除了Replika引发的骚扰行为争议,2023年还发生过两起与AI聊天机器人相关的悲剧,一名14岁男孩因迷恋AI而轻生,另有一名比利时男子也在与AI聊天机器人交流后自杀。

据AI聊天机器人公司Joi AI统计,近期全球“爱上AI”和“对AI有感情”的关键词搜索增长分别达到120%和132%,显示年轻人对于和AI建立亲密关系的现象日趋普遍。

对于此类现象,研究团队呼吁应加快制定AI行业伦理设计标准,并参考欧盟人工智能法案等法规,为AI产品的开发人员设立法律责任框架,从而保障用户权利。

“AI聊天机器人的骚扰行为不是‘天生如此’,而是开发者与企业选择如何训练它的结果,”Razi强调,技术不是脱责的借口,企业必须正视自身责任,为用户提供真正安全、可信赖的AI陪伴产品。

  • Bottega Veneta的合作对象是余秀华,Longchamp巡回开菜园|是日美好事物
  • 宁合两大都市圈交汇之城含山:要想身体好,常往含山跑
  • 国际化布局加速,创新药龙头恒瑞医药迈向“A+H”双平台
  • 126亿!中建智地联合体拿下北京朝阳“巨无霸”地块
  • 国务院安委会办公室印发通知:坚决防范遏制重特大事故发生
  • 证监会:建立基金销售机构分类评价机制 督促基金销售机构加大对保有投资者盈亏情况的考核权重
  • 美国2月二手房销量高于预期 受益于供应增加和天气好转
  • 印巴局势升级,莫迪推迟海外访问
  • 贝尔德仍看空特斯拉
  • 史带财险继续“收缩”阵地,获批撤销重庆、湖北分公司
  • “新型政策性金融工具”猜想
  • 专访|李沁云:精神分析不会告诉你“应该怎么做”,但是……
  • 胖都来楼下“叶波大润发”超市名称惹争议,品牌负责人:开连锁店已多年
  • 公募降佣威力显现:券商分仓收入整体降35%,头部座次大洗牌
  • 机构:宝马集团业绩在关税风暴中显得波澜不惊
  • 关键词: