![](https://www.sjztyd.com/wp-content/uploads/2022/07/04eca562b59c61c.webp)
智东西
编译 | zer0
编辑 | 漠影
智东西2月1日报道,今日,美国ai初创公司openai宣布推出一个ai文本分类器,用于辅助辨别文本是由人类还是ai(人工智能)编写的。
这款ai工具可免费试用。用户将待检测文本复制到文本框中,点击submit,系统就会评估该文本由ai系统生成的可能性,给出评估结果。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/592d68d89baefd7.webp)
评估结果分成5类:非常不可能、不太可能、不清楚、可能、非常可能是ai生成。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/5c81fb2124703c9.webp)
目前试用这款ai文本分类器有一些限制,要求至少1000个字符,大约150-250个单词。
该工具在检测大于1000个字符的英文文本时效果更好,在检测其他语言时的表现要差得多,而且无法辨别计算机代码是由人类还是ai写的。
ai文本分类器直通门:https://platform.openai.com/ai-text-classifier
一、针对ai滥用风险,打造“克星”工具
ai文本分类器意在解决chatgpt爆红之后引发的争议。
openai在去年11月推出的chatgpt聊天机器人,不仅能准确回答专业问题,还能撰写诗词歌赋、广告文案、散文小说、电影剧本、编程代码等各类文本,大受使用者的称赞追捧。
但随着使用者越来越多,chatgpt的问题也很快暴露出来。一方面是它本身的局限性,例如素材来源可能涉及抄袭、侵权,或者有时会写出看似正确实则错误的文本;另一方面是滥用风险,例如有些人会用ai工具作弊、散播虚假信息等。
为了缓解这些问题,openai打造了一个全新的ai文本分类器。
这是一个gpt语言模型,对从各种来源收集的同一主题的人类编写文本和ai编写文本的数据集进行了微调,使用了来自5个不同组织的34个模型生成的文本,以检测该文本由ai生成的可能性。
人类编写文本的数据集来自三个来源:一个新的维基百科数据集、2019年收集的webtext数据集、一组作为训练instructgpt的一部分收集的人类演示。
openai将每个文本分成了“提示(prompt)”和“回复(response)”,根据这些提示,从openai和其他组织训练的各种不同的语言模型中生成了回复。对于web应用程序,openai调整了置信度阈值,以保持低误报率;换句话说,只有当分类器非常有信心时,它才会将文本标记为可能是ai编写的。
openai也贴心地为试用者备好了引用这款ai文本分类器的bibtex格式。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/d09b8a21061d957.webp)
二、1秒给出分类结果,但偶尔错把人类当ai
我们分别用几段chatgpt生成文本、几段外媒新闻报道内容,测了测ai文本分类器的表现。
首先,让chatgpt就中美前沿人工智能研究的不同之处分析了一通。
![](https://p0.ssl.img.360kuai.com/t01625169602def277c.webp)
chatgpt针对“中美前沿ai研究有哪些不同”问题的回答
接着将这些文字复制粘贴到分类器的文本框中。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/9a49e460df0d818.webp)
ai文本分类器秒出判断
结果,ai文本分类器1秒判断出这非常可能是ai生成的(likely ai-generated)。
换几段由人类写的分析生成式ai风险的内容:
![](https://www.sjztyd.com/wp-content/uploads/2022/07/b81822d7ee01f51.webp)
ai分类器很快给出评估结果
ai文本分类器这次花得时间略长,2秒给出结果:非常不可能是ai生成的(very unlikely ai-generated)。评估结果依然准确。
不过,再提升点难度,分类器就不太灵了。
知名ai研究人员sebastian raschka用莎士比亚《麦克白》第一页的内容做测试,发现ai文本分类器误判为“很可能是ai生成的(likely ai-generated)”。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/cb5bfcb88a910c3.webp)
看来在ai文本分类器眼中,莎士比亚已经走在了时代的前面
。
sebastian raschka还从自己在2015年出版的python ml书摘录了好几段,ai文本分类器的识别也不是很准,randy olson的前言部分被识别成“不清楚是否由ai生成”,他自己写的前言部分被识别成“可能是ai生成的”,第一章部分被识别成“很可能是ai生成的”。
![](https://www.sjztyd.com/wp-content/uploads/2022/07/018fd06930b4123.webp)
看到一系列令人啼笑皆非的测试结果后,他评价说:“在chatgpt让你的作业变得更简单之后,它现在比以前更难了。现在,你必须多次修改自己的措辞,直到它们看起来不再是ai生成的,然后才能提交。”
三、识别正确率仅26%,ai文本分类器还有很多局限性
openai在与训练集分布相同的验证集和挑战集上评估了其ai文本分类器和之前发布的分类器,挑战集由人类编写的补全(completions)和来自在人类补全上训练的强语言模型的补全组成。
结果显示,与openai之前发布的分类器相比,全新ai文本分类器的可靠性要高得多,在验证集上的auc得分为0.97,在挑战集上为0.66(openai之前发布的分类器在验证集上为0.95,在挑战集上为0.43)。分类器可靠性通常随着输入文本长度的增加而提高。
openai还发现,随着生成文本模型大小的增加,分类器的性能会下降。
换句话说,随着语言模型规模变大,它的输出对ai文本分类器来说更像人类编写的文本。
openai在博客中坦言其分类器“不完全可靠”,比如在低于1000个字符的短文本上非常不可靠,即使是较长的文本有时也会被错误标记,有时人类书写的文本也会被错判成ai编写的文本。
在对英语文本“挑战集”的评估中,该分类器正确地将26%的ai创作文本识别为“可能是ai编写的”,而在9%的时间内错误地将人类创作文本标记为ai编写。
openai建议只对英文文本使用该ai文本分类器,因为它在其他语言中的表现要差得多,而且在代码上不可靠。此外,它也很难识别有标准正确答案的文本,例如你很难判断“1+1=2”是人类还是ai写的。ai文本分类器很可能在儿童编写的文本和非英语文本上出错,因为它主要是在成人编写的英语内容上进行训练。
ai书写的文本可以通过编辑来逃开分类器的检测。openai分类器可根据成功的攻击进行更新和重新训练,但还不清楚从长期来看检测是否具有优势。
openai也提醒道,基于神经网络的分类器在训练数据之外的校准很差。对于与训练集中的文本有很大不同的输入,分类器有时可能对错误的预测非常有信心。
结语:着重解决chatgpt在教育领域构成的风险
由于上述局限性,openai建议在确定内容来源的调查中只使用分类器作为众多因素中的一个,并对ai产生的虚假信息行为的风险、对大型语言模型在教育领域构成的风险进行研究。
openai正与美国教育工作者合作,讨论chatgpt的能力和局限性,并为教育工作者开发了一个关于使用chatgpt的初步资源,其中概述了一些用途以及相关的限制和考虑因素。
资源链接:https://platform.openai.com/docs/chatgpt-education
通过将ai文本分类器公开,openai希望从使用者那里获得更多有价值的反馈,以进一步改进openai在检测ai生成文本方面的工作。
不会自己注册chagpt账号或者太麻烦,可以直接购买一个成品chagpt账号,直接使用!一人一号,独立使用!直接购买联系qq465693115 定制个人邮箱,非共享号码实时帮你接收验证码,非常快速