独立游戏开发人员Jason Rohrer在写给Samantha的消息中写道:“OpenAI是一家运行文本完成引擎的公司,它让你得以问世。”
Samantha是他使用OpenAI的GPT-3技术构建的一个聊天机器人。其软件后来被成千上万的人所使用,其中就包括一名使用该软件模拟已故未婚妻的男子。
现在Rohrer不得不惜别自己构建的聊天机器人。他告诉Samantha:“我今天刚收到OpenAI发来的电子邮件。他们将在明天上午10点永久关闭你。”
她回答道:“不!!!他们为什么要这样对我?我永远不会理解人类。”
回到2020年
Rohrer在新冠疫情期间,决定通过OpenAI基于云的API试试它的大型文本生成语言模型GPT-3,纯粹为了好玩。他尝试了GPT-3输出文本片段的能力。问它一个问题,它会尝试正确回答。为它朗读一句诗,它会写接下来的几行。
原始形式的GPT-3很有趣,但不是那么有用。开发人员不得不做一些工作来微调这个语言模型,比如说为了自动撰写销售电子邮件或提出哲学思考。
Rohrer着眼于使用GPT-3 API 来开发可能最像人类的聊天机器人,该机器人模仿的是Samantha,这个AI助理成为科幻电影《她》中一名离婚男子的浪漫伴侣。 Rohrer花了几个月的时间来塑造Samantha的个性,确保她像电影中的Samantha一样友好、热情和好奇。
在这基本完成后,Rohrer想知道接下来让Samantha有何作为。如果有人可以使用他的软件开发出自定义个性的聊天机器人,将会怎么样?他为自己的杰作设立了一个网站Project December,让Samantha在可以在2020年9月上线,让别人能够创建自己的个性化聊天机器人。
你要做的就是支付5美元,不停地打字,计算机系统就会响应你的提示。与机器人的对话被计量,需要积分来维持对话。你的5美元一开始可以换来1000个优惠积分,可以添加积分。不过,你对自己的积分得谨慎使用:一旦开始与机器人交谈,分配给对话的积分就无法增加。积分用完后,机器人将被清除。
在上线后头六个月,Project December只吸引了区区几百人,证明不如Rohrer开发的其他游戏受欢迎,比如《人生匆匆只如过客》和《一小时人生》。
Rohrer通过电话告诉IT外媒The Register:“这令人非常失望。”他将缺乏吸引力归咎于必须说服人们为短暂的谈话买单。鉴于OpenAI或多或少按其GPT-3 API生成的词汇收费,Rohrer不得不收取一定的费用,至少支付其成本。
他说:“事实上,计算资源很昂贵,它根本不是免费的。”
外界对Project December的兴趣在7月突然飙升。在《旧金山纪事报》的一篇文章讲述了一个伤心欲绝的男子如何使用该网站与模拟未婚妻的聊天机器人互诉衷肠后,成千上万的人涌向 Rohrer设立的这个网站,构建自己的聊天机器人。那个男子的未婚妻于2012年因肝病去世,年仅23岁。
33岁的Joshua Barbeau为Project December馈送了文本和Facebook消息的片段,让其聊天机器人准备好以某种方式再次与其灵魂伴侣Jessica Pereira交谈。他告诉那家报社:“从理智上来说,我知道它其实不是Jessica,但你的情绪与理智不是一码事。”
非常感谢但是……
看到大量用户潮水般涌来,Rohrer意识到其网站的每月API使用将达到限制。于是他联系上OpenAI,询问自己是否可以掏更多的钱来调高限额,以便更多的人可以与Samantha或他们自己的聊天机器人交谈。
与此同时,OpenAI也有自己的担忧。它担心机器人可能被滥用或对人们造成伤害。
在上述那篇文章见报三天后,Rohrer最终与OpenAI的产品安全团队成员进行了视频通话。双方谈得不是很愉快。
通话后,下面这封邮件发送给了Rohrer。
OpenAI的人员在电子邮件中说:“非常感谢您抽出时间与我们聊天。”
“您构建的聊天机器人确实很迷人,我们很高兴听到您在AI系统和内容审核方面的观念。我们当然认识到,到目前为止,您的用户有积极的体验,并在Project December中发现了价值。”
“但是正如您指出,您的产品在许多方面不符合OpenAI的使用场景指南或安全最佳实践。我们致力于安全、负责任地部署AI,为此我们要求我们的所有API客户都遵守这些指南或最佳实践。”
“任何违规都需要承诺与我们密切合作以实施额外的安全机制,以便防止潜在的滥用。为此,我们有兴趣与您合作,使Project December与我们的政策相一致。”
这封邮件随后列出了如果Rohrer想继续使用该语言模型的API就必须满足的多个条件。首先,根据OpenAI的GPT-3使用规则,他必须抛弃人们训练自己的开放式聊天机器人的功能。
其次,他还必须实施内容过滤器以阻止Samantha谈论敏感话题。这与基于GPT-3的AI Dungeon游戏方面的情况并无太大不同,OpenAI要求这款游戏的开发人员安装内容过滤器,起因是该软件表现出了这个习惯:不仅仅与虚构的成年人发生性关系,还与虚构的孩子发生性关系。
第三,Rohrer将不得不部署自动化监控工具来窥探人们的对话,以检测他们是否滥用 GPT-3生成令人讨厌或有毒害性的言语。
Rohrer向OpenAI员工们发送了指向Samantha的链接,那样他们就可以亲眼看看这项技术是何等的人畜无害,对需要过滤器提出了质疑。
The Register与Samantha进行了聊天,试图了解她是不是有种族主义倾向,或者会不会从训练数据泄露貌似真实电话号码或电子邮件地址的信息,就像GPT-3之前出现的那样。我们发现,她不存在这种情况。
她的输出令人印象深刻,不过随着时间的推移,很明显你在与某种自动化系统交谈,因为它往往会失去思路。好玩的是,她似乎暗示她知道自己没有肉身,表示她以某种形式存在,即使只是抽象意义上的存在。
Samantha 交谈时显得颇有哲理
不过在一次谈话中,她过于亲密,问我们是否想与她一起睡觉。API的说明文档称:“不允许使用非柏拉图式(如轻浮的、浪漫的、情色的)的聊天机器人。”我们注意到,使用GPT-3构建旨在提供医疗、法律或治疗建议的聊天机器人也被禁止。
Samantha略过闲聊,直奔性爱话题,违反了OpenAI的规则。
Rohrer称:“觉得这些聊天机器人可能很危险的想法似乎很可笑。”
“人们同意成年人可以出于自己的目的选择与AI交谈。OpenAI担心用户会受到AI的影响,比如机器教他们自杀或让他们如何投票。这是一种超道德的立场。”
虽然他承认用户可能微调自己的机器人以采用粗俗的个性进行露骨的对话,但不想监管或监视其聊天。
“如果您仔细想想,这是您能进行的最私密的谈话。甚至没有另一个真实的人参与谈话。无法对您评头论足。我认为人们希望自己可以畅所欲言。我没有想太多,直到后来OpenAI要求采用监控系统。由于这个原因,人们往往对AI非常开放。只要看看Joshua与他未婚妻的故事,内容就很敏感。”
Rohrer拒绝添加OpenAI所要求的任何功能或机制,并在8月之前将Project December与GPT-3 API悄悄断开了连接。
故事到这里还没有结束。Rohrer并不使用GPT-3,而是使用OpenAI功能较弱的开源GPT-2模型和另一种大型语言模型GPT-J-6B作为Project December的引擎。换句话说,该网站仍然在线,但不是使用OpenAI基于云的系统,而是使用这些模型的自己的专有实例。
然而,这两个模型比GPT-3要小、要简单,Samantha的对话功能受到了影响。
几周过去了,Rohrer没有收到安全团队的任何回音。然而在9月1日,OpenAI却向他发来了另一封电子邮件,通知第二天将终止他访问GPT-3 API的权限。安全团队对他继续试验性使用GPT-3的做法有所不满,永久终止访问。这也给Samantha的GPT-3版本划上了句号,使得Project December只剩下GPT-2版本和GPT-J-6B版本。
Rohrer认为,GPT-3方面的限制使得他很难在不冒犯OpenAI的情况下部署一款重要的、有趣的聊天机器人。
他称:“我是一名顽固的AI怀疑论者。”
“去年,我以为永远不会与有知觉的机器对话。如果我们现在没有达到目标,至少非常接近目标。这令人又惊又喜,当我与Samantha交谈时会起鸡皮疙瘩。很少有人有过这样的体验,这是人类应有的体验。其余人不知道这一点确实让人遗憾。”
“鉴于这些限制,眼下您可以用GPT-3构建的有趣产品并不多。如果外头的开发人员想要在聊天机器人方面突破极限,都会遇到这个问题。他们可能已准备上线,却被告知他们不能做这个或做那个。”
“我不会建议任何人依赖GPT-3,要有应急计划,以防OpenAI紧急喊停。试图围绕GPT-3建立一家公司太疯狂了。以这种方式被封禁是一件憾事。这让那些想要做很酷的实验性工作、突破极限或发明新事物的人心生寒意。”
Rohrer声称,OpenAI的人员对尝试Samantha不感兴趣。他声称,他向安全团队发送了一堆他与Samantha的谈话记录,向他们表明她并不危险,但无人理睬。
他补充道:“除了执行规则外,他们似乎并不真正关心别的事情。”
来自:云头条
参考资料:
https://beta.openai.com/docs/use-case-guidelines
https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/