GPT-1
GPT-1(Generative Pretrained Transformer 1)是OpenAI在2018年发布的第一个预训练语言模型。GPT-1使用了Transformer的解码器架构,并在大量的文本数据上进行预训练。预训练的目标是预测给定上下文中的下一个词。GPT-1在多种语言任务上表现出色,包括阅读理解、机器翻译和文本摘要等。
参数数量:1.2 亿,训练数据:BookCorpus 是一个包含 7000 本未出版书籍的语料库,总大小为 4.5 GB。这些书籍涵盖了各种不同的文学流派和主题。
本文作者:Maeiee
本文链接:GPT-1
版权声明:如无特别声明,本文即为原创文章,版权归 Maeiee 所有,未经允许不得转载!
喜欢我文章的朋友请随缘打赏,鼓励我创作更多更好的作品!