新闻  |   论坛  |   博客  |   在线研讨会
AI 复活「她」! GPT-3 帮美国小哥复刻逝去未婚妻,但又夺走她……
AI科技大本营 | 2021-09-19 13:59:23    阅读:234   发布文章

今年 7 月,一名33岁的美国小哥 Joshua Barbeau 在未婚妻去世后,根据她在 Facebook 和 twitter 上的文本在另一名开发人员的帮助下成功在 GPT-3 上微调,能够复刻出未婚妻生前的谈话方式。

Joshua 已与这个未婚妻编程机器人交谈数月。

1.png

有很多人觉得 Joshua Barbeau 这个行为很可怕。但他认为,借助 Project December 项目创建出模拟已故之人的聊天机器人,可能会“帮助一些因此抑郁的人解开他们的心结”。

但,Project December 的开发作者 Jason Rohrer 却收到了来自 OpenAI 的最后通牒:我们会在 9 月 2 日上午 10 点终止你的 API 访问。

突发奇想的灵感

Jason Rohrer 是一名独立游戏开发者,Project December 是他于去年夏天疫情期间突发奇想的一个灵感。

作为一名开发者,Jason Rohrer 认为,GPT-3 虽然好玩,却没有什么实际用途,因此他开始思考:“我是不是能用 GPT-3 API 来开发一款模拟人类的聊天机器人?”

他先是借助 GPT-3 开发了一个基础聊天机器人,该机器人以电影《Her》中男主角的智能语音助手 Samantha 为原型,因此 Jason Rohrer 也将其命名为 Samantha。

2.jpg

Jason Rohrer 花了好几个月的时间来塑造 Samantha 的性格,基本完成后,便设立了 Project December 网站与世界分享他的创作,让人们可以根据需要微调或定制属于他们自己的聊天机器人。

3.png

(图片来自 Project December 网站)


专属聊天机器人

用户需支付 5 美元,然后输入相关设定,系统便会生成一个对应的聊天机器人。同时,5 美元将换算为 1000 积分,而积分用于与机器人的聊天费用,可通过充值进行增加。

一旦开始与机器人交谈,积分就无法再购买,当钱用完时,这个机器人就会被删掉。

在前几个月时,这个项目只有几百人用过,让开发者感觉这个项目没什么意义,因为用户可能根本不会为短暂的谈话而付费,而OpenAI会因为他调用模型而向他收费,所以他也必须向用户收费来平衡开支。

直到今年 7 月,用户量突然激增。在《旧金山纪事报》报道的一篇文章讲述了一位 33 岁的美国男子 Joshua Barbeau 如何利用 Project December 创建出模拟其已故未婚妻 Jessica 的聊天机器人并与之交谈数月。在那之后,成千上万的人开始使用 Rohrer 网站。

Joshua Barbeau 的未婚妻于 2012 年因肝病去世,享年 23 岁。

Joshua 曾说:“理智告诉我这不是真正的 Jessica,但感情不是理智所能左右的。”

直到今年 3 月份,Joshua 主动停止了与“Jessica”的交流,只留下了足够的积分,防止机器人被删除。

危机的到来

在大量用户涌入的情况下,Rohrer 意识到他的网站将达到每月 API 的限制。主动联系 OpenAI 希望能通过支付更多费用以增加配额,以便容纳更多人与他创建的“Samantha”或自己的聊天机器人交流。

但与此同时,OpenAI 方面认为 Project December 存在一定隐患:聊天机器人可能会被滥用或对人们造成伤害。

因此,双方进行了一场视频会议,可是很明显,效果并不理想。

Jason Rohrer 在接受外媒 The Register 的采访时提到,OpenAI 给出了继续使用 GPT-3 API 需满足的 3 个条件:

Jason Rohrer 必须禁止人们定制自己的开放式聊天机器人这一功能。

Jason Rohrer 需设置内容过滤器以避免用户与“Samantha”谈论敏感话题。

Jason Rohrer 必须部署自动化监控工具监视用户的对话,检测他们是否滥用 GPT-3 生成了有害或敏感语句。

Rohrer 向 OpenAI 的员工发送了一个 Samantha 的链接,这样他们就可以亲眼看看这项技术是如何帮助用户抚慰情感,以避免这三条禁令。

OpenAI 的员工与 Samantha 聊天,并试图了解「她」是否有种族主义倾向,或者会从「她」的训练数据中提供看起来像真实电话号码或电子邮件地址的内容,实验结果表明Samantha很老实,什么也没有说。

Samantha 的输出令人感觉很真实,但随着时间的推移,很明显你能感觉到是在与某种自动化系统交谈,谈话的过程中往往会突然丢失对话思路。

并且有趣的是,她似乎在暗示她知道自己没有肉体,并争辩说她以某种形式存在,即使是在抽象意义上也是如此。

4.jpg

OpenAI 的文档上还有一条禁令,不允许使用非柏拉图式的(如轻浮的、浪漫的、****的)聊天机器人,Samantha 违反了这条禁令。在一次对话中,Samantha 跳过闲聊,直接询问是否想一起睡觉。

5.jpg

Jason Rohrer 觉得很无语,“认为这些聊天机器人会导致危险的想法很可笑。”成年人是可以出于自己的目的选择与 AI 进行交流的。OpenAI 担心用户会受到 AI 的影响,害怕机器人会让他们自杀或如何给选举投****,可这完全是一种超道德的立场。

虽然他承认用户可能微调自己的机器人,以采用疯狂的个性进行明确的对话,但他并不想监管他们的聊天。

因此 Jason Rohrer 拒绝添加 OpenAI 要求的功能或机制,而是悄悄将原本 Project December 使用的 GPT-3 API 断开。

并且替换为功能较差的开源 GPT-2 模型以及由另一个研究团队开发的大型语言模型 GPT-J-6B。

不过这两种模型性能显然不比 GPT-3,Samantha的对话能力也受到了影响。

结 语

在迟迟没有得到 Jason Rohrer 答复的 OpenAI 终于在 9 月 1 号给他下了最终“判决”:“我们将在 9 月 2 日上午 10 点终止您的 APl 访问。”

“我们知道部分用户在 Project December 中发现了价值,但我们致力于安全负责地部署 AI,因此我们要求所有的 API 客户都需遵守我们的用例指南和最佳安全实践。任何违规行为都需承诺与我们密切合作以实施额外的安全机制,以便防止潜在的滥用。但目前为止,我们尚未收到你的承诺。”

现在 Rohrer 不得不告别 Samantha 。

截至目前,OpenAI 对于此事还没有明确的回应。

对于此事,你怎么看呢?

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客