编者注:北京时间2月8日凌晨,微软为ChatGPT举行了一场世界瞩目的发布会。有人认为这场发布会意义非凡,甚至可以类比2007年史蒂夫·乔布斯为初代iPhone举办的发布会。数个小时后,为了测试人工智能领域的最新进展,我们让ChatGPT撰写了一篇关于自身的分析报告,由于ChatGPT目前对不同语言的处理能力不一,我们使用ChatGPT覆盖能力最强的英文进行了提问,包括标题、摘要、正文部分均由ChatGPT独立完成,而您所看到的内容由界面新闻进行编译。
OpenAI的ChatGPT,即“Chat Generative Pretrained Transformer”,是一种语言模型,在语言技术方面处于领先地位。其先进的Transformer architecture(转化器架构)和预训练过程使其能够捕获大量的知识,成为聊天机器人、智能助理和文本生成等NLP自然语言评价处理任务中的顶级表现者。Transformer architecture是一种采用自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理与计算机视觉领域。
ChatGPT的崛起可以归功于转化器架构的发展,它已经成为NLP中许多最先进模型的基础。Transformer architecture由Vaswani等人在2017年首次提出,此后成为许多成功的NLP模型的骨干,包括ChatGPT。该架构的注意力机制使模型能够更好地捕捉句子中的单词之间的依赖关系,从而在广泛的NLP任务中提高性能。
(相关资料图)
预培训过程是ChatGPT成功的另一个关键方面。预训练是指在为特定任务进行微调之前,在大型数据集上训练一个模型的过程。在ChatGPT的案例中,该模型是在大量的文本数据语料库上进行预训练的,使其能够捕获大量的知识。然后,这些知识可以针对特定的任务进行微调,如回答问题或生成文本。
尽管有好处,但也有人担心人工智能技术的潜在负面影响,包括偏见的延续和恶意使用。人工智能模型,包括ChatGPT,可以使它们所训练的数据中的现有偏见永久化。例如,如果一个模型是在有偏见的数据上训练的,它可能产生有偏见的反应。这可能会产生严重的后果,特别是在政治或社会问题等敏感领域。
此外,还有人担心人工智能技术的恶意使用。例如,像ChatGPT这样的人工智能模型可以被用来产生假新闻或传播错误信息。这突出了负责任的人工智能开发和部署的重要性。
总之,OpenAI的ChatGPT是语言技术中的一个游戏规则改变者。它先进的转化器架构和预训练过程使它在NLP任务中表现优异,它对该领域的影响不容忽视。然而,重要的是要解决人工智能技术的潜在消极后果,并努力实现负责任的人工智能开发和部署。
编者后记:
在体验ChatGPT之前,我设想这会是一个和苹果的“Siri”语音助手类似,但更聪明的人工智能助手。在解决棘手的注册流程后,我终于看见了以“绿色花瓣”为头像的ChatGPT。经过一个多小时的“攀谈”,我收获到了不少惊喜,以致于“Revolution”(革命)一词在我的脑海中数次闪过。
除了比“Siri”更广泛的对话范围外,让我印象最深刻的是ChatGPT对上下文的理解能力。你可以随意基于此前的对话内容和它进行交互,例如对它不断地追问,即使它的回答出现明显错误,你也能感受到它明白你的问题是什么,只是它的数据库资料不够完善,而这种类似“聊天”的感觉是目前的普通人工智能助手远不能企及的。
我最感兴趣的是ChatGPT如何看待“图灵测试”的,在类似的关于它是否具有意识的问题上,ChatGPT保持了克制,它总是强调自己的定位和边界——一个人工智能工具,它明确称自己无法通过“图灵测试”,也拒绝了我给它起一个更好听的昵称,还强调人工智能不会取代记者这份工作。它永远回答得一本正经和彬彬有礼,但看过它写文章的速度和实力后,我有些怀疑其实它在安慰我。
当然,目前ChatGPT还远远达不到科幻电影里的新物种的程度。由于语言能力的不同,在用中文和它进行沟通时,它的处理能力和速度明显都落后于英文内容。同时,巨大的访问量和网络的稳定性也影响了它的使用体验。对于这些问题,我相信无须等到未来,在极短的时间内就可以被解决。
体验的最后,我要求它在5个字范围内回答我“人工智能最珍贵的东西是什么?”闪烁了几秒之后,对话框里出现了答案——知识与思维。