[AI-人工智能]AI聊天机器人导致布恩伯里监狱心理社会工作场所培训失误
在布恩伯里监狱开展的一项心理社会安全培训中,使用了涉嫌性骚扰受害者的全名,负责该课程的公司将此归咎于人工智能(AI)。心理社会领导力培训师夏洛特·英厄姆表示,她在为布恩伯里监狱员工提供培训时,使用了微软的Copilot聊天机器人生成员工可能面临的心理社会危害示例。
其中一个情境中提到的角色名为布朗温·亨德里,而她正是该监狱的前员工。“我走进去时,以为我有一个虚构的情境,”英厄姆女士说,
“当我展示幻灯片并开始活动时,有人说,‘这不是虚构的,这是现实中的人。’”
布恩伯里地区监狱的员工最近参加了一次心理社会危害培训课程。亨德里女士是联邦法院一起针对司法部及布恩伯里监狱多名高级职员的性骚扰和霸凌案件的原告。英厄姆女士说,她并不知道聊天机器人会使用真实人的名字,“我本应该知道吗?”她表示,自己无法访问与聊天机器人的过去互动来提供截图,微软公司证实确实可能如此。然而,澳大利亚广播公司(ABC)能够独立证实,当生成案例研究时,聊天机器人可能会提供真实名字和细节。
当ABC请求一个“虚构的区域性西澳监狱性骚扰案例情境”时,Copilot给出了一个情境,其中包含了亨德里女士的全名、监狱现任主管的名字以及来自正在进行的联邦法院案件的真实细节。它注明“这个案例研究完全是虚构的,但它借鉴了现实世界的事件。”
声称受害者称培训“自相矛盾”
亨德里女士表示,在她的前工作地点进行的培训中使用她的经历,感觉“自相矛盾”。“你要记住,我正在拼命努力证明我在联邦法院上所经历的事情,”她说,“这很触发我的情绪。”
司法部表示,虽然它委托了这次培训,但所有培训材料均由培训师准备和拥有。它表示并不知道亨德里的名字会被使用,但关于她的内容仅限于公开可用的信息。“该部门对这一事件感到失望,并正在采取适当措施,以确保未来的培训不会再以这种方式进行,”一位发言人表示。亨德里女士对此表示不满。“最终,这仍然是司法部的责任,”她说,“他们聘用了她,他们为她的咨询支付了费用,他们应该进行那些检查和平衡。”
WorkSafe正在调查布恩伯里监狱员工之间的霸凌和性骚扰指控
这一事件发生之际,WorkSafe正在对布恩伯里监狱员工之间的霸凌和性骚扰指控进行调查。去年,该监管机构向监狱发出了一份改进通知,建议高级职员接受更多的工作场所安全培训。
AI专家警告公司在使用时要谨慎
墨尔本大学人工智能与数字伦理中心主任珍妮·帕特森教授表示,这一情况引发了关于工作场所中AI聊天机器人伦理使用的问题。
帕特森教授表示,核心问题在于“反刍”,即当聊天机器人输出真实信息而非生成的信息时。她说,ABC的互动中生成的结果特别有趣,因为聊天机器人向提示者保证,案例研究是“完全虚构的”。
帕特森教授说,“在某种意义上,我们会说提示的人被误导了。”“除了我们知道使用生成性AI时,它会产生幻觉……它不可信赖。”她说,这种情况更可能发生在提示非常具体或主题信息稀少的情况下。“这就是为什么我会说公司不应该说‘不要使用它’,而是应该说‘这是我们使用它的政策’,”她说。“这个政策应该是不要在提示中输入敏感信息,并检查名字。”
关键词:
AI聊天机器人, Copilot, 心理社会安全, 布恩伯里监狱, 性骚扰, 霸凌, 联邦法院, 微软, 工作场所培训, 职场伦理, 人工智能, 珍妮·帕特森, 生成性AI, 反刍, 虚构情境, 真实信息, 工作场所安全, WorkSafe, 改进通知, 敏感信息, 咨询责任, 培训内容, 职员培训, 法律责任, 职场安全, 数字伦理, 公司政策, 触发情绪, 案例研究, 工作场所伦理, 员工权益, 信息公开, 虚拟角色, 职场事件, 雇员保护, 信息生成, 法律诉讼, 政策建议, 数据隐私, 司法部, 公开信息, 法律案件, 生成案例, 数据误用, 墨尔本大学, AI使用规范, 职场行为, AI风险, 职场伦理。