Loading...

乾元BigBangTransformer:超对称开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text,可用于回答百科类和日常生活问题,以及金融领域的问答和文本

AI大模型2个月前发布 阿强
21 0

超对称(北京)科技有限公司了一系列基于 Decoder-only架构的大规模预训练,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text。这些模型覆盖了个高质量数据源,包括书籍、百科、论文、小说、新闻、政策文件、中文博客和等多个数据源种类。

乾元BigBangTransformer有哪些功能?

1. 可以直接调用进行对话;

2. 在基础模型的基础上使用自由语料库继续训练;

3. 对大模型进行微调训练以满足各种下游任务。

应用场景:

1. 回答百科类和日常生活问题;

2. 金融领域的问答和文本生成;

3. 自然语言处理任务的预训练和微调。

乾元BigBangTransformer如何使用?

开发者可以直接调用大模型进行对话,也可以在基础模型的基础上使用自由语料库继续训练,或对大模型进行微调训练以满足各种下游任务。

乾元BigBangTransformer:https://bbt.ssymmetry.com/

乾元BigBangTransformer:超对称开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text,可用于回答百科类和日常生活问题,以及金融领域的问答和文本插图
    © 版权声明

    相关文章

    暂无评论

    暂无评论...