哪一个模型是GPT⑶的开源替换品?

GPT⑶的开源替换品是哪一个模型?

GPT⑶(Generative Pre-trained Transformer 3)是由OpenAI开发的预训练语言模型,目前其实不开源,仅作为有偿服务提供。

即使如此,有人认为,如果GPT⑶开源了,像LLMa一样,能在M1芯片上运行的时间大约需要5天。开发者们能够帮助OpenAI解决GPU瓶颈,但条件是他们开源模型。

好消息是,Cerebras公司在Apache⑵.0协议下开源了一个包括七个区别参数的GPT模型,这些参数涵盖了从1.11亿到130亿的范围。这一举措为语言模型的开源提供了一个新的选择。

监管GPT⑶的行动是必要的,但同时也认识到开源的重要性,开源能够更好地让社区参与和管理如此大型的语言模型。

EleutherAI的GPT-Neo项目是GPT⑶的复现与开源模型之一。该项目提供了1.3B和2.7B级别的模型参数,为使用GPT⑶的开发者们提供了一个替换选择。

GPT⑶是GPT⑵的升级版,包括更大的模型范围、更高的准确率、更快的训练速度和处理更复杂任务的能力,但并未开源。

目前,并没有官方方式发布GPT⑶的开源版本,但已有一些团队通过复现等方式提供了替换品。

GPT-3开源

甚么是GPT-J?

GPT-J是一个基于GPT⑶的自然语言处理AI模型。它由60亿个参数组成,并在一个800GB的开源文本数据集上进行训练。与GPT⑶具有类似范围的模型相媲美。

参考文章:

  • LLM⑵023:GPT-J【GPT⑶开源替换品】【EleutherAI
  • ChatGPT 的开源“替换”来了!前 OpenAI 团队出手,能用中文…

GPT-J与GPT⑶的区分是甚么?

文章没有提到GPT-J与GPT⑶的具体区分。

参考文章:

  • GPT-J 是一个基于 GPT⑶,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似范围的 GPT⑶ 模型相媲美2023 年,微软与 OpenAI 达成了协议,微软将具有对 GPT⑶ 源代码的独家访问权,自此 OpenAI 就不像以往一样开放其 GP…

GPT-J是如何训练的?

GPT-J是在一个800GB的开源文本数据集上进行训练的。具体的训练细节没有提到。

参考文章:

  • GPT-J 是一个基于 GPT⑶,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似范围的 GPT⑶ 模型相媲美2023 年,微软与 OpenAI 达成了协议,微软将具有对 GPT⑶ 源代码的独家访问权,自此 OpenAI 就不像以往一样开放其 GP…

ChatGPT相关资讯

ChatGPT热门资讯

X

截屏,微信识别二维码

微信号:muhuanidc

(点击微信号复制,添加好友)

打开微信

微信号已复制,请打开微信添加咨询详情!