乾元BigBangTransformer:超对称开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text,可用于回答百科类和日常生活问题,以及金融领域的问答和文本
超对称(北京)科技有限公司开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text。这些模型覆盖了14个高质量数据源,包括书籍、百科、论文、小说、新闻、政策文件、中文博客和社交媒体等多个数据源种类。
乾元BigBangTransformer有哪些功能?
1. 可以直接调用大模型进行对话;
2. 在基础模型的基础上使用自由语料库继续训练;
3. 对大模型进行微调训练以满足各种下游任务。
应用场景:
1. 回答百科类和日常生活问题;
2. 金融领域的问答和文本生成;
3. 自然语言处理任务的预训练和微调。
乾元BigBangTransformer如何使用?
开发者可以直接调用大模型进行对话,也可以在基础模型的基础上使用自由语料库继续训练,或对大模型进行微调训练以满足各种下游任务。
乾元BigBangTransformer:https://bbt.ssymmetry.com/

© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...