阳虚是什么| 品行是什么意思| 大枣和红枣有什么区别| 为什么会有荨麻疹| 耳朵有回音是什么原因| 奥美拉唑治什么胃病| 胆固醇高吃什么最好| 带状疱疹一般长在什么地方| blub是什么意思| 包饺子剩下的面团能做什么| 炖排骨放什么调料| 断崖式是什么意思| 左手臂麻木是什么征兆| 什么排球好| 腰疼什么原因| 鹅蛋不能和什么一起吃| 避孕套长什么样| 粉墙用什么| 中秋是什么时候| 非主流什么意思| 四大才子是什么生肖| 性生活有什么好处| cdts什么意思| 雪燕有什么功效| 拉肚子胃疼吃什么药| 激动是什么意思| 管状腺瘤是什么意思| 敬邀是什么意思| 身体发烧是什么原因| 乐不思蜀是什么意思| 什么的青蛙| 蛋白质高是什么原因| 假牙什么材质的最好| 容五行属什么| 生理期可以吃什么| 国字五行属什么| 白带发黄什么原因| 桃子什么季节成熟| 维生素c什么时候吃最好| 干碟是什么| rad是什么单位| 探望产妇带什么礼物好| 540是什么意思| 吃素是什么意思| 什么是针灸| 南京的简称是什么| 孕激素低吃什么补得快| 淋巴滤泡增生是什么意思严重吗| 复古是什么意思| 下缘达宫颈内口是什么意思| 61年属什么| 大拇指指甲凹凸不平是什么原因| 反将一军什么意思| 南瓜和什么食物相克| 奴才模样是什么生肖| 什么是夜店| 爱之深恨之切是什么意思| 83属什么生肖| 腺瘤样增生是什么意思| 丝瓜水敷脸有什么作用| 谈恋爱是为了什么| 颌下腺肿大是什么原因| 吃什么能安神助睡眠| 穿模是什么意思| 牙齿松动吃什么药最好| 举牌是什么意思| 黎山老母什么级别神仙| 老虎头衣服是什么牌子| 尿液有白色絮状物是什么原因| 嗓子有粘痰什么原因| 中指戴戒指代表什么| 草单斤是什么字| 甲鱼喜欢吃什么食物| 饧是什么意思| 心门是什么意思| 12月是什么座| 维生素c阳性是什么意思| absorb什么意思| 中学为体西学为用是什么意思| 一什么手表| 阴唇萎缩是什么原因| 软科是什么意思| 眼睛干涩用什么药水| 精索炎吃什么药最好| 1月生日是什么星座| 3月份生日是什么星座| 斑秃是什么原因| 尿ph值高是什么意思| 提高免疫力吃什么食物| 高血压需要注意些什么| 私事是什么意思| 紫外线是什么意思| 3月9号是什么星座| 手肿是什么病的前兆| 总梦到一个人说明什么| 尿酸高肌酐高是什么原因呢| 杀了神经的牙为什么还疼| 肠粉是用什么粉做的| 钾高吃什么药| omega3是什么| 眼花是什么原因| 许多的近义词是什么| 锦纶是什么面料优缺点| 多彩的什么| 戾气重是什么意思| 谷维素是治疗什么的| 头发粗硬是什么原因| 牙龈有点发黑是什么原因| 北极熊为什么不怕冷| 铁扫帚命是什么意思| 反吟是什么意思| 什么事情| e-mail什么意思| 高血压吃什么中药| 诡辩是什么意思| 人工受孕和试管婴儿有什么区别| 两肋胀满闷胀是什么病| 小儿抽搐是什么原因引起的| 梦见抢银行是什么意思| 挑拨离间是什么意思| 流黄鼻涕是什么原因| 犬字旁的字和什么有关| 疯狗病症状都有什么| 勾芡用什么粉最好| 94年什么命| 8月9号是什么星座| 为什么长智齿| 甲状腺功能亢进是什么意思| 秀恩爱是什么意思| 姓兰的是什么民族| 胸痛什么原因| 放的偏旁是什么| 96年属什么的| 儿童诺如病毒吃什么药| 跑步大腿痒是什么原因| 寒门子弟是什么意思| igm阳性是什么意思| 奇门遁甲什么意思| 子宫肌瘤是什么病严重吗| 三个鬼是什么字| 什么不周| 孕妇羊水少吃什么补的快| 渐行渐远是什么意思| 内窥镜是做什么检查| 熬夜后吃什么恢复元气| 肠息肉是什么原因引起的| thc是什么意思| 五行代表什么| 婴儿腹泻吃什么好| 士多啤梨是什么水果| 感冒喉咙痛挂什么科| LC是什么| 美女是指什么生肖| b长什么样| 疱疹性咽峡炎吃什么药| 百合病是什么病| tasty是什么意思| 李子树苗什么品种好| 皮可以加什么偏旁| 丝瓜有什么好处| 65年属什么生肖| 伤口愈合慢是什么原因| 李约瑟难题是什么| 乙肝抗体阳性什么意思| 前凸后翘什么意思| 什么时候收花生| 栀子泡水喝有什么功效| 女性hpv阳性是什么意思| 分开后我会笑着说是什么歌| 橘子是什么季节| 葸是什么意思| 陇是什么意思| 导乐是什么意思| 阴道干涩是什么原因| 一个目一个敢念什么| 乙肝病毒表面抗体弱阳性什么意思| 九宫八卦是什么意思| 羊肉配什么菜好吃| 女性漏尿吃什么药最好| 阿莫西林治什么| 势均力敌什么意思| 需要一半留下一半是什么字| 天恩是什么意思| 贴膏药发热是什么原因| 更年期出汗吃什么药| 减肥早上吃什么比较好| uniqlo是什么牌子| 心肾不交有什么症状| 骨折吃什么钙片| 待我长发及腰时下一句是什么| 12月有什么节日| 为什么趴着睡觉会胀气然后打嗝| 为什么不能天天喝豆浆| 执子之手什么意思| 肾看什么科| 长智齿牙龈肿痛吃什么药| 海米是什么| 7月7日什么星座| 自古红颜多薄命是什么意思| 做肠镜需要准备什么| hpl是什么意思| 小意思是什么意思| 切忌什么意思| 取环后需要注意什么| 小孩指甲有白点是什么原因| 五花八门什么意思| 晕车药什么时候吃最好| 1992是什么年| 较重闭合性跌打损伤是什么意思| 梦见搬家是什么意思| 大姨妈来了吃什么对身体好| 交替脉见于什么病| 锌补多了有什么症状| 下嘴唇跳动是什么原因| 儿童过敏性咳嗽吃什么药| 霸王别姬是什么意思| 中国国鸟是什么鸟| 猪肝有什么功效| 老人不睡觉是什么预兆| 痔疮什么样子| 春天都开什么花| 冻结账户需要什么条件| 安乃近又叫什么名| 急性上呼吸道感染是什么引起的| 风心病是什么病| 儿童说话不清楚挂什么科| 醋泡脚有什么好处和坏处| 炒木耳为什么会炸锅| 兔子吃什么| 梦见情人是什么意思啊| 风疹病毒抗体偏高是什么意思| 头发不干就睡觉有什么危害| 首选是什么意思| 抱窝是什么意思| fnc是什么意思| 谷丙转氨酶高是什么原因| 晚上喝什么有助于睡眠| 急性子是什么意思| 柴胡有什么功效| 小儿多动症挂什么科| 细菌性阴道炎用什么药好| 脚底起水泡是什么原因| 甲钴胺是什么药| 黄芪配升麻有什么作用| 去医院洗纹身挂什么科| dsa检查是什么意思| 属马跟什么属相犯冲| 天牛长什么样子| 亚麻籽有什么功效| 包皮真菌感染用什么药| 08年是什么年| 农历六月十四是什么日子| 字母圈是什么| 土耳其说什么语言| 肛门痒是什么原因男性| 扎巴依是什么意思| 沙加女是什么字| 什么是早孕| 5月24号是什么日子| 立秋是什么时候| 为什么不建议光子嫩肤| 付之一炬什么意思| 口若悬河什么意思| 螃蟹的血是什么颜色的| 百度跳转到内容

COC会理站决赛赛况:何伟三连冠 黄凤革赛季首问鼎

本页使用了标题或全文手工转换
维基百科,自由的百科全书
基于转换器的生成式预训练模型
上级分类大型语言模型 编辑
简称GPT 编辑
原始的GPT模型
百度 不过唯一的遗憾就是,老款搭载的是第七代酷睿处理器。

基于转换器的生成式预训练模型[1](英语:generative pre-trained transformersGPT)是一种大型语言模型(LLM)[2][3][4],也是生成式人工智能的重要框架[5][6]。首个GPT由OpenAI于2018年推出[7]。GPT模型是基于Transformer模型人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本[3][4]。截至2023年,大多数LLM都具备这些特征[8],并广泛被称为GPT[8][9]

OpenAI发布了具有极大影响力的GPT基础模型,它们按顺序编号,构成了“GPT-n”系列[10]。由于其规模(可训练参数数量)和训练程度的提升,每个模型相较于前一个都显著增强。其中最新的模型是GPT-4o,于2024年5月发布。这些模型为更具任务特定性的GPT系统奠定了基础,包括经过微调以适应特定指令的模型——而这些又反过来为ChatGPT聊天机器人服务提供了支持[2]

术语“GPT”还用于命名和描述其他开发者所开发的模型。例如,其他GPT基础模型包括EleutherAI英语EleutherAI开发的一系列模型[11],以及Cerebras英语Cerebras开发的七个模型[12]。此外,不同行业的公司还在其各自领域开发了执行特定任务的GPT,例如赛富时的“EinsteinGPT”(用于客户关系管理[13]彭博的“BloombergGPT”(用于金融领域)[14]

历史

[编辑]

初步发展

[编辑]

生成式预训练(generative pretraining,简称GP)是机器学习应用中一个历史悠久的概念[15][16],但直到2017年,Google的员工发明了Transformer模型[17],这才使得大型语言模型如BERT(2018年)[18]和XLNet(2019年)成为可能[19],这些模型是预训练的转换器(pre-trained transformers,简称PT),但未被设计为生成式,而是“仅编码器”(encoder-only[20]。2018年,OpenAI发表了题为《通过生成式预训练提高语言理解能力》(Improving Language Understanding by Generative Pre-Training)的文章,在其中首次介绍了基于转换器的生成式预训练模型(GPT)系统(“GPT-1”)[21]

在基于转换器的架构出现之前,表现最优秀的神经自然语言处理(NLP)模型通常通过大量手动标记的数据进行监督学习。这种依赖于监督学习的开发途径限制了在未经充分标记的数据集上的应用,并且使得训练极大型语言模型相当耗时且开支非常昂贵[21]

OpenAI采用半监督学习方法来构建大规模生成式系统,同时也是首个使用Transformer模型的方法。该方法包括两个阶段:无监督生成式“预训练”阶段,使用目标函数来设置初始参数;以及有监督的判别式微调英语fine-tuning (machine learning)”阶段,将这些参数在目标任务上进行微调[21]

后续发展

[编辑]

OpenAI于2020年7月发布了GPT-3的首个版本。其中包括三个模型,参数数量分别为10亿、67亿和1750亿,分别被命名为巴贝奇(babbage)、居里(curie)和达芬奇(davinci),分别以B、C和D作为简称。

2021年7月,OpenAI发布了Codex,是专门用于编程应用的特定任务GPT模型。该模型使用GitHub上的代码对GPT-3的12亿参数版本(与之前的GPT-3模型不同)进行代码微调而开发[22]

2022年3月,OpenAI发布了两个针对指令跟随进行微调(即“指令微调”(instruction-tuned))的GPT-3版本,分别命名为davinci-instruct-beta(1750亿参数)和text-davinci-001[23],随后开始测试code-davinci-002[24]text-davinci-002是通过code-davinci-002进行指令微调得到的。text-davinci-003ChatGPT于2022年11月发布,两者都是在text-davinci-002的基础上通过基于人类反馈的强化学习方案英语Reinforcement learning from human feedback[1](RLHF)得到的。text-davinci-003用于遵循指令(与其前身相似),而ChatGPT则经过进一步训练,可与人类用户进行对话交互[25][26]

OpenAI最新的GPT基础模型是GPT-4,于2025-08-07发布。用户可以通过ChatGPT的高级版本直接访问它,而开发者则可通过OpenAI的API将其纳入其他产品和服务中。其他GPT基础模型的开发者包括EleutherAI英语EleutherAI(从2021年3月开始推出一系列模型)[11]Cerebras英语Cerebras(于2023年3月发布七个模型)[12]

基础模型

[编辑]

基础模型是指在广泛的数据上进行大规模训练的AI模型,以便能够适用于各种下游任务[27]

迄今为止,最著名的GPT基础模型来自OpenAI的GPT-n系列。其中最新的是GPT-4,OpenAI选择不公开该模型的规模或训练细节,理由是“大规模模型的竞争环境和安全影响”[28]

OpenAI的“GPT-n”系列
模型 架构 参数数量 训练数据 发布日期 训练成本
GPT-1 12层,12头的Transformer解码器(没有编码器),后跟线性softmax 1.17 亿 BookCorpus[29]:一个包含7000本未出版书籍的语料库,总大小为4.5 GB。这些书籍涵盖了各种不同的文学流派和主题。 2025-08-07[7] “使用8个GPU训练1个月”[7],或等价于1.7e19次浮点运算(FLOP)[30]
GPT-2 基于GPT-1架构,但使用修改后的归一化方法 15亿 WebText:一个包含八百万个文档的语料库,总大小为40 GB。这些文本是从Reddit上投票最高的4,500万个网页中收集的,包括各种主题和来源,例如新闻、论坛、博客、维基百科和社交媒体等。 2025-08-07(初始/有限版)和2025-08-07(完整版)[31] “数十PetaFlop/s-day”[32],或等价于1.5e21次浮点运算[30]
GPT-3 基于GPT-2架构,但修改以支持更大规模的训练 1750亿 一个总大小为570 GB的大规模文本语料库,其中包含约4990亿个标记。这些数据主要来自于Common Crawl英语Common Crawl、WebText、英文维基百科和两个书籍语料库(Books1和Books2)。 2025-08-07[32] 3640 petaflop/s-day(Table D.1 [32]), 或等价于3.1e23次浮点运算[30]
GPT-3.5 未公开 1750亿[33] 未公开 2025-08-07 未公开
GPT-4 使用文本预测和基于人类反馈的强化学习方案英语Reinforcement learning from human feedback(RLHF)进行训练,并可以接受文本和图像输入。进一步的细节尚未公开[28] 未公开 未公开 2025-08-07 未公开。估计约为2.1e25次浮点运算[30]

其他类似的模型包括GooglePaLM英语PaLM,与2023年3月通过API向开发者提供[34][35]。另外还有Together的GPT-JT,据报道是与GPT-3性能最接近的开源替代方案(源自早期的开源GPT模型)[36]Meta AI英语Meta AI(前身为Facebook)还拥有一个基于转换器的生成式基础大型语言模型(generative transformer-based foundational large language model),称为LLaMA[37]

基础GPT模型还可以采用文本以外的模态英语Modality (human–computer interaction)进行输入和/或输出。GPT-4是一个多模态LLM,能够处理文本和图像输入(尽管其输出仅限于文本)[38]。多模态输出方面,一些基于转换器的生成式模型被用于文本到图像技术,如扩散[39]和并行解码[40]。此类模型可作为视觉基础模型(visual foundation models,简称VFMs),用于开发能够处理图像的下游系统[41]

特定任务模型

[编辑]

基础GPT模型可以进一步适应特定任务和/或主题领域,形成更具针对性的系统。这种适应的方法可以包括额外的微调(超出基础模型的微调),以及某种形式的提示工程[42]

一个重要的例子是将模型微调以遵循指令,这当然是一个相当广泛的任务,但比基础模型更具针对性。2022年1月,OpenAI推出了“InstructGPT”系列模型,这些模型在GPT-3语言模型的基础上使用监督训练和基于人类反馈的强化学习方案英语Reinforcement learning from human feedback(RLHF)进行微调,以遵循指令。与纯粹的基础模型相比,其优点包括更高的准确性、更少的负面情感,以及更好地符合用户需求。因此,OpenAI开始将它用作其API服务提供的基础。其他开发者也发布了不同的经过指令微调的模型,其中还有完全开源的模型[43][44]

另一种(相关的)任务特定模型是聊天机器人,它可以进行类似人类对话的交流。2022年11月,OpenAI推出了ChatGPT。ChatGPT是一个在线聊天界面,由经过指令微调的语言模型提供支持,该模型的训练方式类似于InstructGPT[45]。OpenAI使用RLHF训练该模型,通过让人工智能训练员进行对话,扮演用户和AI的角色,并将这些新的对话数据集与InstructGPT数据集混合,形成了适合聊天机器人的对话格式。其他主要的聊天机器人还包括微软Bing Chat,它使用OpenAI的GPT-4(作为OpenAI和微软之间更广泛合作的一部分),以及竞争对手Google的Bard聊天机器人(最初基于他们的LaMDA系列对话训练语言模型,计划转换为PaLM英语PaLM[46]

GPT还可以用于另一种任务,即生成它自己的指令,如为“自己”开发一系列提示(prompt),以实现人类用户给定的更一般目标[47]。这被称为AI智能体英语software agent,具体而言是递归性的,因为它利用前一次的自我指令结果来帮助形成后续的提示;这方面的一个重要例子是Auto-GPT(使用OpenAI的GPT模型),此外还有其他类似的模型被开发出来[48]

多模态性

[编辑]

基于转换器的生成式系统还可以针对涉及文本以外的其他模态英语Modality (human–computer interaction)的任务进行定制。

例如,微软的“Visual ChatGPT”结合了ChatGPT与视觉基础模型(VFMs),使其能够处理包含图像和文本的输入或输出[49]。此外,由于文本转语音技术的进步,当该技术与基础GPT语言模型结合使用时,可为音频内容的创作提供强大的工具[50]

领域特异性

[编辑]

GPT系统可以针对特定领域或行业。以下是一些报道中涉及的此类模型和应用示例:

  • EinsteinGPT - 用于销售和营销领域,辅助客户关系管理(使用GPT-3.5)[51]
  • BloombergGPT - 用于金融领域,帮助处理金融新闻和信息(使用“免费可用”的AI方法,结合其专有数据)[52]
  • Khanmigo – 被描述为在教育领域中用于辅导的GPT版本,通过引导学生的学习过程而不是直接提供答案,来帮助他们在可汗学院上学习(由GPT-4提供支持)[53][54]
  • SlackGPT - 用于Slack即时通讯服务,帮助导航和概括讨论内容(使用OpenAI的API)[55]
  • BioGPT – 由微软开发的[56],用于生物医学领域,帮助进行生物医学文献的文本生成和挖掘[57]
  • ProtGPT2 – 用于蛋白质研究[58]

有时,领域特异性可以通过软件插件或附加组件实现。例如,几家公司已经开发了与OpenAI的ChatGPT接口直接交互的特定插件[59][60]Google Workspace也提供了可用的附加组件,如“GPT for Sheets and Docs”。据报道,该组件有助于Google表格电子表格功能的使用[61][62]

品牌问题

[编辑]

OpenAI曾宣称“GPT”应该被视为OpenAI的品牌[63]。在2023年4月,OpenAI在其服务条款中修改了品牌指南,指示其他企业在使用其API运行其人工智能(AI)服务时,将不再能够在名称或品牌中包含“GPT”[64]。在2023年5月,OpenAI聘请了一个品牌管理服务,通知其API客户有关此政策的信息,尽管这些通知并未明确提出法律要求(比如指控商标侵权英语trademark infringement或要求停止并终止[63]

此外,OpenAI已向美国专利及商标局(USPTO)申请在AI领域对“GPT”一词进行国内商标注册[63]。OpenAI试图让其申请被加速处理,但专利及商标局于2023年4月拒绝了该请求[65]。要获得商标批准,OpenAI需要证明该术语实际上在其特定产品中具有“显著性”,而不仅仅被广泛理解为描述类似技术的广泛技术术语。一些媒体报道暗示OpenAI或可间接基于其ChatGPT的知名度来实现这一点[65][66],对于ChatGPT,OpenAI已经单独寻求商标保护(并试图更严格地执行)[67]。其他报道表明,“GPT”一词似乎不太可能被授予独占权[63][68],因为它经常用于简单地指代涉及生成预训练转换器的AI系统[4][69][70]。即使这种情况发生,商标上的描述性合理使用原则仍可能保留一些空间,使其能继续进行与品牌无关的使用[71]

部分出版物

[编辑]

以下为OpenAI和微软关于其GPT模型的主要官方出版物:

GPT-1:报告[7],GitHub发布[72]

GPT-2:博客公告[73],关于“分阶段发布”决策的报告[74],GitHub发布[75]

GPT-3:报告[32]。此后没有GitHub或任何其他形式的代码发布

webGPT: 博客公告[76]、报告[77]

InstructGPT:博客公告[78]、报告[79]

ChatGPT:博客公告(无报告)[45]

GPT-4:博客公告[80]、报告[81][82]、model card[83]

参考资料

[编辑]
  1. ^ 1.0 1.1 冯志伟. 冯志伟教授聊ChatGPT. 中国科技术语. [2025-08-07]. (原始内容存档于2025-08-07) –通过微信公众平台. 
  2. ^ 2.0 2.1 Haddad, Mohammed. How does GPT-4 work and how can you start using it in ChatGPT?. www.aljazeera.com. [2025-08-07]. (原始内容存档于2025-08-07). 
  3. ^ 3.0 3.1 Generative AI: a game-changer society needs to be ready for. World Economic Forum. [2025-08-07]. (原始内容存档于2025-08-07). 
  4. ^ 4.0 4.1 4.2 The A to Z of Artificial Intelligence. Time. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  5. ^ Hu, Luhui. Generative AI and Future. Medium. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  6. ^ CSDL | IEEE Computer Society. www.computer.org. [2025-08-07]. (原始内容存档于2025-08-07). 
  7. ^ 7.0 7.1 7.2 7.3 Improving language understanding with unsupervised learning. openai.com. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  8. ^ 8.0 8.1 Toews, Rob. The Next Generation Of Large Language Models. Forbes. [2025-08-07]. (原始内容存档于2025-08-07). 
  9. ^ Mckendrick, Joe. Most Jobs Soon To Be 'Influenced' By Artificial Intelligence, Research Out Of OpenAI And University Of Pennsylvania Suggests. Forbes. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  10. ^ GPT-1 to GPT-4: Each of OpenAI's GPT Models Explained and Compared. MUO. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  11. ^ 11.0 11.1 Alford, Anthony. EleutherAI Open-Sources Six Billion Parameter GPT-3 Clone GPT-J. InfoQ. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  12. ^ 12.0 12.1 Cerebras Systems Releases Seven New GPT Models Trained on CS-2 Wafer-Scale Systems. [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  13. ^ Morrison, Ryan. Salesforce launches EinsteinGPT built with OpenAI technology. Tech Monitor. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  14. ^ The ChatGPT of Finance is Here, Bloomberg is Combining AI and Fintech. Forbes. [2025-08-07]. (原始内容存档于2025-08-07). 
  15. ^ Hinton, Geoffrey; Deng, Li; Yu, Dong; Dahl, George; Mohamed, Abdel-rahman; Jaitly, Navdeep; Senior, Andrew; Vanhoucke, Vincent; Nguyen, Patrick; Sainath, Tara; Kingsbury, Brian. Deep Neural Networks for Acoustic Modeling in Speech Recognition: The Shared Views of Four Research Groups. IEEE Signal Processing Magazine. 2012-11, 29 (6) [2025-08-07]. ISSN 1053-5888. S2CID 206485943. doi:10.1109/MSP.2012.2205597. (原始内容存档于2025-08-07). 
  16. ^ Deng, Li. A tutorial survey of architectures, algorithms, and applications for deep learning | APSIPA Transactions on Signal and Information Processing | Cambridge Core. Apsipa Transactions on Signal and Information Processing (Cambridge.org). 2025-08-07, 3: e2 [2025-08-07]. S2CID 9928823. doi:10.1017/atsip.2013.9. (原始内容存档于2025-08-07). 
  17. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia. Attention Is All You Need. 2025-08-07. arXiv:1706.03762?可免费查阅. 
  18. ^ Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2025-08-07. arXiv:1810.04805v2?可免费查阅. 
  19. ^ Yang (et-al), Zhilin. XLNet (PDF). Proceedings from NeurIPS 2019. 2019 [2025-08-07]. (原始内容存档 (PDF)于2025-08-07). 
  20. ^ Naik, Amit Raja. Google Introduces New Architecture To Reduce Cost Of Transformers. Analytics India Magazine. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  21. ^ 21.0 21.1 21.2 Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya. Improving Language Understanding by Generative Pre-Training (PDF). OpenAI: 12. 2025-08-07 [2025-08-07]. (原始内容存档 (PDF)于2025-08-07). 
  22. ^ Chen, Mark; Tworek, Jerry; Jun, Heewoo; Yuan, Qiming; Ponde de Oliveira Pinto, Henrique; Kaplan, Jared; Edwards, Harri; Burda, Yuri; Joseph, Nicholas; Brockman, Greg; Ray, Alex; Puri, Raul; Krueger, Gretchen; Petrov, Michael; Khlaaf, Heidy. Evaluating Large Language Models Trained on Code. 2025-08-07 [2025-08-07]. arXiv:2107.03374?可免费查阅. (原始内容存档于2025-08-07). 
  23. ^ Ouyang, Long; Wu, Jeffrey; Jiang, Xu; Almeida, Diogo; Wainwright, Carroll; Mishkin, Pamela; Zhang, Chong; Agarwal, Sandhini; Slama, Katarina; Ray, Alex; Schulman, John; Hilton, Jacob; Kelton, Fraser; Miller, Luke; Simens, Maddie. Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems. 2025-08-07, 35: 27730–27744 [2025-08-07]. arXiv:2203.02155?可免费查阅. (原始内容存档于2025-08-07) (英语). 
  24. ^ New GPT-3 capabilities: Edit & insert. openai.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  25. ^ Fu, Yao; Peng, Hao; Khot, Tushar. How does GPT Obtain its Ability? Tracing Emergent Abilities of Language Models to their Sources. Yao Fu's Notion. 2022 [2025-08-07]. (原始内容存档于2025-08-07). 
  26. ^ Model index for researchers. OpenAI API. [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  27. ^ Introducing the Center for Research on Foundation Models (CRFM). Stanford HAI. [2025-08-07]. (原始内容存档于2025-08-07). 
  28. ^ 28.0 28.1 OpenAI. GPT-4 Technical Report (PDF). 2023 [2025-08-07]. (原始内容存档 (PDF)于2025-08-07). 
  29. ^ Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja. Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. IEEE International Conference on Computer Vision (ICCV) 2015: 19–27. 2015 [2025-08-07]. arXiv:1506.06724?可免费查阅. (原始内容存档于2025-08-07). 
  30. ^ 30.0 30.1 30.2 30.3 ML input trends visualization. Epoch. [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  31. ^ Vincent, James. OpenAI has published the text-generating AI it said was too dangerous to share. The Verge. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  32. ^ 32.0 32.1 32.2 32.3 Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario. Language Models are Few-Shot Learners. 2025-08-07. arXiv:2005.14165v4?可免费查阅. 
  33. ^ Ver Meer, Dave. ChatGPT Statistics. NamePepper. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  34. ^ Vincent, James. Google opens up its AI language model PaLM to challenge OpenAI and GPT-3. The Verge. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  35. ^ Google Opens Access to PaLM Language Model. [2025-08-07]. (原始内容存档于2025-08-07). 
  36. ^ Iyer, Aparna. Meet GPT-JT, the Closest Open Source Alternative to GPT-3. Analytics India Magazine. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  37. ^ Meta Debuts AI Language Model, But It's Only for Researchers. PCMAG. [2025-08-07]. (原始内容存档于2025-08-07). 
  38. ^ Islam, Arham. Multimodal Language Models: The Future of Artificial Intelligence (AI). 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  39. ^ Islam, Arham. How Do DALL·E 2, Stable Diffusion, and Midjourney Work?. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  40. ^ Saha, Shritama. Google Launches Muse, A New Text-to-Image Transformer Model. Analytics India Magazine. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  41. ^ Wu (et-al), Chenfei. Visual ChatGPT. 2025-08-07. arXiv:2303.04671?可免费查阅 [cs.CV]. 
  42. ^ Bommasani (et-al), Rishi. On the Opportunities and Risks of Foundation Models. 2025-08-07. arXiv:2108.07258?可免费查阅 [cs.LG]. 
  43. ^ Stanford CRFM. crfm.stanford.edu. [2025-08-07]. (原始内容存档于2025-08-07). 
  44. ^ Free Dolly: Introducing the World's First Truly Open Instruction-Tuned LLM. Databricks. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  45. ^ 45.0 45.1 Introducing ChatGPT. openai.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  46. ^ ChatGPT vs. Bing vs. Google Bard: Which AI Is the Most Helpful?. CNET. [2025-08-07]. (原始内容存档于2025-08-07). 
  47. ^ Auto-GPT, BabyAGI, and AgentGPT: How to use AI agents. Mashable. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  48. ^ Marr, Bernard. Auto-GPT May Be The Strong AI Tool That Surpasses ChatGPT. Forbes. [2025-08-07]. (原始内容存档于2025-08-07). 
  49. ^ Microsoft Open-Sources Multimodal Chatbot Visual ChatGPT. InfoQ. [2025-08-07]. (原始内容存档于2025-08-07). 
  50. ^ Edwards, Benj. Microsoft's new AI can simulate anyone's voice with 3 seconds of audio. Ars Technica. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  51. ^ Morrison, Ryan. Salesforce launches EinsteinGPT built with OpenAI technology. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  52. ^ Leswing, Kif. Bloomberg plans to integrate GPT-style A.I. into its terminal. CNBC. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  53. ^ Learning nonprofit Khan Academy is piloting a version of GPT called Khanmigo. Fast Company. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  54. ^ Khan Academy Pilots GPT-4 Powered Tool Khanmigo for Teachers -. THE Journal. [2025-08-07]. (原始内容存档于2025-08-07). 
  55. ^ Hachman, Mark. Slack GPT will bring AI chatbots to your conversations. PCWorld. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  56. ^ Matthias Bastian. BioGPT is a Microsoft language model trained for biomedical tasks. The Decoder. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  57. ^ Luo, Renqian; Sun, Liai; Xia, Yingce; Qin, Tao; Zhang, Sheng; Poon, Hoifung; Liu, Tie-Yan. BioGPT: generative pre-trained transformer for biomedical text generation and mining. Briefings in Bioinformatics. 2025-08-07, 23 (6) [2025-08-07]. ISSN 1467-5463. PMID 36156661. doi:10.1093/bib/bbac409. (原始内容存档于2025-08-07) (英语). 
  58. ^ Ferruz, Noelia; Schmidt, Steffen; H?cker, Birte. ProtGPT2 is a deep unsupervised language model for protein design. Nature Communications. 2025-08-07, 13 (1) [2025-08-07]. ISSN 2041-1723. doi:10.1038/s41467-022-32007-7. (原始内容存档于2025-08-07) (英语). 
  59. ^ Know about ChatGPT's 13 best plugins, designed to improve your overall user experience – Latest Digital Transformation Trends | Cloud News | Wire19. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  60. ^ ChatGPT plugins. openai.com. [2025-08-07]. (原始内容存档于2025-08-07). 
  61. ^ How to Use ChatGPT on Google Sheets With GPT for Sheets and Docs. MUO. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  62. ^ Asay, Matt. Embrace and extend Excel for AI data prep. InfoWorld. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  63. ^ 63.0 63.1 63.2 63.3 Hicks, William. ChatGPT creator OpenAI is asking startups to remove 'GPT' from their names. The Business Journals英语American City Business Journals. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  64. ^ OpenAI. Brand Guidelines. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  65. ^ 65.0 65.1 Heah, Alexa. OpenAI Unsuccessful At Speeding Up Its Attempt To Trademark 'GPT'. DesignTAXI. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  66. ^ 25 April 2023, 08:04 am. OpenAI Wants to Trademark 'GPT' Amid Rise of AI Chatbots. Tech Times. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  67. ^ OpenAI files a UDRP case against the current owner of ChatGPT.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  68. ^ Demcak, Tramatm-Igor. OpenAI's Battle for Brand Protection: Can GPT be trademarked?. Lexology. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  69. ^ Lawton, George. ChatGPT vs. GPT: How are they different? | TechTarget. Enterprise AI. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  70. ^ Robb, Drew. GPT-4 vs. ChatGPT: AI Chatbot Comparison. eWEEK. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  71. ^ Rheintgen, Husch Blackwell LLP-Kathleen A. Branding 101: trademark descriptive fair use. Lexology. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07) (英语). 
  72. ^ finetune-transformer-lm. OpenAI. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  73. ^ GPT-2: 1.5B release. openai.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  74. ^ Solaiman, Irene; Brundage, Miles; Clark, Jack; Askell, Amanda; Herbert-Voss, Ariel; Wu, Jeff; Radford, Alec; Krueger, Gretchen; Kim, Jong Wook; Kreps, Sarah; McCain, Miles; Newhouse, Alex; Blazakis, Jason; McGuffie, Kris; Wang, Jasmine. Release Strategies and the Social Impacts of Language Models. 2025-08-07. arXiv:1908.09203?可免费查阅 [cs.CL]. 
  75. ^ gpt-2. OpenAI. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  76. ^ WebGPT: Improving the factual accuracy of language models through web browsing. openai.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  77. ^ Nakano, Reiichiro; Hilton, Jacob; Balaji, Suchir; Wu, Jeff; Ouyang, Long; Kim, Christina; Hesse, Christopher; Jain, Shantanu; Kosaraju, Vineet; Saunders, William; Jiang, Xu; Cobbe, Karl; Eloundou, Tyna; Krueger, Gretchen; Button, Kevin. WebGPT: Browser-assisted question-answering with human feedback. 2025-08-07 [2025-08-07]. (原始内容存档于2025-08-07). 
  78. ^ Aligning language models to follow instructions. openai.com. [2025-08-07]. (原始内容存档于2025-08-07). 
  79. ^ Ouyang, Long; Wu, Jeff; Jiang, Xu; et al. Training language models to follow instructions with human feedback. 2025-08-07. arXiv:2203.02155?可免费查阅. 
  80. ^ GPT-4. openai.com. [2025-08-07]. (原始内容存档于2025-08-07) (美国英语). 
  81. ^ OpenAI. GPT-4 Technical Report. 2025-08-07. arXiv:2303.08774?可免费查阅 [cs.CL]. 
  82. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi. Sparks of Artificial General Intelligence: Early experiments with GPT-4. 2025-08-07. arXiv:2303.12712?可免费查阅 [cs.CL]. 
  83. ^ GPT-4 System Card (PDF). OpenAI. 2025-08-07 [2025-08-07]. (原始内容存档 (PDF)于2025-08-07) (美国英语). 
藏语扎西德勒是什么意思 肝血虚吃什么中成药 轻度异常脑电图是什么意思 早上五点半是什么时辰 凝血功能障碍是什么病
自缢是什么意思 国药准字是什么意思 阳气不足是什么意思 舌头臭是什么原因 女性胆固醇高吃什么好
湿疹为什么一热就出来 八八年属什么生肖 腹部疼痛挂什么科 佛法是什么意思 cini是什么意思
咖啡有什么功效 fomo是什么意思 pcr是什么 6月26日是什么日子 多吃黑芝麻有什么好处
淋巴结节吃什么药hcv9jop0ns7r.cn kkb什么意思hcv8jop4ns1r.cn 梦见木头是什么意思hcv8jop0ns0r.cn 什么是士官hcv9jop6ns1r.cn 老公梦见老婆出轨是什么意思hcv9jop7ns2r.cn
什么是高脂肪食物ff14chat.com 治疗舌苔白厚用什么药hcv8jop7ns5r.cn 黄芪和枸杞泡水喝有什么作用zhongyiyatai.com 乙基麦芽酚是什么东西hcv8jop3ns8r.cn 活检和穿刺有什么区别hcv7jop4ns6r.cn
什么是肝脏纤维化hcv8jop5ns5r.cn 祛湿有什么好处hcv9jop5ns1r.cn 皮炎是什么原因引起的hcv8jop8ns1r.cn 卢沟桥事变又称什么hcv9jop0ns8r.cn 胆固醇高吃什么好hcv9jop0ns6r.cn
五月三十一号是什么星座hcv8jop2ns9r.cn 佞臣是什么意思helloaicloud.com 梦见补的牙齿掉了是什么意思hcv7jop6ns3r.cn 什么的果子bjcbxg.com 梦到生孩子是什么意思adwl56.com
百度