要理解GPT,必须先从“什么是人工智能?”开始。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能(Artificial Intelligence)英文缩写为AI,研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作,人工智能必须是一个系统,包括智能感应(智能终端)、信息存储、信息传输、信息处理(算力、算法、大模型等)等部分组成。当然,不同的时代、不同的人对这种“复杂工作”的理解是不同的。人工智能是一门极富挑战性的科学,人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大。人工智能不是人的智能,也能超过人的智能。
人工智能可以看成是计算机科学的一个分支,涉及计算机科学、心理学、数学等多领域的交叉学科,研究领域的包括机器人、图像识别、自然语言处理( Natural Language Processing,NLP)和专家系统(Expert System,ES)等。其中,自然语言处理(NLP)人工智能领域中的一个重要方向,是人工智能中最为困难的领域之一,NLP使用了神经网络技术让计算机自然地与人交谈、阅读、写作和翻译。
而在NLP(自然语言处理)领域中,近年来最引人注目和最具革命性的技术就是大型语言模型(large language model,LLM)。LLM是一种使用深度学习算法来处理自然语言的模型,它可以根据海量的数据来识别、总结、翻译、预测和生成文本和其他内容。LLM是自2018年以来最成功的应用变换器模型(transformer model)之一。变换器模型是一种基于注意力机制(attention mechanism)来处理序列数据(比如文本)的深度神经网络。LLM主要利用了一种叫做自监督学习(self-supervised learning)的方法来训练。LLM有哪些典型的模型呢?目前,最流行和最强大的LLM模型都是基于变换器架构的,它们有很多不同的变体和扩展,比如:
GPT系列:GPT(Generative Pre-trained Transformer)是由OpenAI开发的一种以生成为目标的预训练变换器模型,它可以根据给定的上下文生成连贯和多样化的文本。目前已经发布了四代GPT模型。
BERT系列:BERT(Bidirectional Encoder Representations from Transformers)是由Google开发的一种以编码为目标的预训练变换器模型,它可以同时考虑文本左右两边的上下文信息,从而获得更好地语言理解能力。BERT也有很多衍生版本和改进版本,比如RoBERTa、ALBERT、ELECTRA等 。
T5系列:T5(Text-to-Text Transfer Transformer)是由Google开发的一种以转换为目标的预训练变换器模型,它可以把任何NLP任务都转化为文本到文本的形式,从而实现统一和简化的模型架构和训练流程。T5也有不同规模的版本,从小到大分别是Small、Base、Large、XL、XXL和3B,其中最大的3B版本有30亿个参数。
在过去十年中,GPT是世界上最流行的LLM模型之一。GPT,Generative Pre-trained Transformer (GPT)直白一点翻译过来就是‘生成式预训练转换器’,虽然有了互联网,我们已经可以方便的采集大量的数据来训练的GPT生成深度学习模型,但有标签的数据通常是稀缺的,无标签的数据是非常充足的。如果先在这些无标签的文本数据上进行语言模型的预训练,然后对各个特定的任务进行微调,这就是一种半监督的方法。即,先进行无监督的预训练生成一个通用的模型,再进行有监督的微调、训练不同的任务,这样整个过程只需要很小的改动。
GPT大事件:
2012年谷歌人工智能实验室(GCP)在一次内部会议上提出了一个想法,即让机器能够“学习”语言和语法。
2013年他们发布了一个基于 GPT的语言模型(Transformer),该模型通过对输入的编码来学习语言。
2013年10月,谷歌开始了 GPT的试点项目。GPT主要是一个预训练的语言模型。在此之前, Google并没有开发过这种语言模型。
2013年11月,谷歌对 GPT进行了改进,使其能够在不需要大量训练数据的情况下学习语言模型。
2014年2月20日, GPT在美国人工智能学术年会(ACL)上首次亮相。此后, GPT以指数级增长的速度快速发展起来。
2017年,OpenAI提出少量人类反馈作为奖励函数得以让系统处理复杂任务,把RLHF(人类反馈强化学习,Reinforcement Learning from Human Feedback)技术应用到GPT-3模型中,简而言之,RLHF 将预训练语言模型按照人类反馈进一步微调以符合人类偏好。看似简单,RLHF这条道路,OpenAI同样走了五年。
2021年,OpenAI利用该技术进行摘要生成,雇佣了80 位人工标注者生成了6.48万条数据对模型进行调校,粗略计算仅标注数据的成本就在300万左右。这一工作证明了RLHF确实能够在语言模型上奏效,可以针对人类价值观等模糊的目标进行优化。
2022年,OpenAI将RLHF应用于GPT-3并开发出InstructGPT,相对于GPT-3更善于遵循用户意图,虽然参数量只有1.3B,比175B GPT-3模型参数少了100多倍,但更加遵循指令和事实,并大幅度减少有毒输出(toxic generation),微调成本更是只有GPT-3的2%。
GPT技术发展历程:
GPT-1:基于Transformer的解码器,在没有标注的大数据下完成一个语言模型,作为预训练模型,然后在子任务上做微调获得不同任务的分类器。实现自然语言推理、问答与常识推理、语义相似度识别、分类。
GPT-2:没有对原有的模型进行过多的结构创新与设计,但模型、数据、训练都增强了很多。GPT-2收集了更大的数据集,生成了更大的模型,在阅读摘要、编写等方面展示出了强大的天赋。证明了当数据库越大,模型越大,能力就有可能越强,但是投入多少钱可以得到预期效果?大家都不确定,所以 GTP-2 没有在市场上获得特别强的反响。但OpenAI 通过 GPT-2 认识到了 Zero-Shot 的可能性,并搭载着 GPT-2 发布了很多衍生品。
GPT-3:OpenAI 对 GPT 的迭代已经不在其模型创新性了,而更多则是在实用性,即是否可以完成自然语言处理的绝大部分任务。GPT-3 已经能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌、生成游戏剧本,甚至模仿已故的各位哲学家的风格了。而且,OpenAI 还开放了 GPT-3 API 接口,大家可以自行申请白名单来体验 GPT-3 的效果,由此正式开始了 GPT的商业化模式。GPT 团队认为自己的算法没有问题,思路没有问题,逻辑没有问题,唯一有问题的就是没有资金投喂数据,所以 GPT 团队找了金主,终于从大力出奇迹转变为暴力出奇迹 GPT-3 数据和模型都比 GTP-2 大了100倍。同时,发布了DALL·E、ChatGPT等产品。
GPT-4:2023年3月16日发布,相比前版在信息处理效率、准确度和对人类社会的理解上有显著提升。在各类考试和竞赛中表现卓越,超过绝大多数人类参赛者。覆盖更多小语种,文学创作能力提高。情商和规范性回复能力提高,被“欺骗”的可能性下降。学会了人类“具体问题具体分析”的逻辑,对同一问题能给出更合理的不同回答。
我们可以看出:ChatGPT是OpenAI公司研发的聊天机器人应用,是一款由人工智能技术驱动的自然语言处理工具。它能够通过理解和学习人类的语言来进行对话,并根据聊天的上下文进行互动,达到像人类一样进行聊天交流的效果。除了聊天交流外,ChatGPT还可以撰写邮件、视频脚本、文案,以及完成翻译、代码编写、论文写作等任务。
然而,需要明确的是,ChatGPT只是人工智能的一种应用产品,并不代表整个人工智能领域。人工智能的应用领域非常广泛,涉及的问题也非常多样化。ChatGPT的出现确实令人惊艳,并展示了人工智能的新高度,但我们必须清楚,ChatGPT并不能代表人工智能的全部。人工智能涉及的领域和问题远不止自然语言处理。