乾元
1727337243

官网:https://bbt.ssymmetry.com/model.html

本网页内容由瑞哈希信息科技有限公司收集,排名不分先后,如遇收费应用自行判断,如有侵权请联系删除!

特别是关于他们的BigBang Transformer(BBT)模型的介绍页面。以下是该页面内容的概要:

BigBang Transformer(BBT)模型

  • BBT-乾元:基于GPT Decoder-only架构的大规模预训练模型。

开源模型系列

  • BBT-1-1B:10亿参数的金融模型,使用金融中文语料库1000亿tokens进行预训练。

  • BBT-2-12B-Text:120亿参数的基础模型,基于中文700亿tokens进行预训练。

  • BBT-2.5-13B-Text:130亿参数的基础模型,基于中文+英文2000亿tokens进行预训练。

模型特点

  • 多数据源覆盖:预训练语料库覆盖14个高质量数据源,如书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等。

  • 高性能:BBT-2-12B-Text基于中文进行预训练,BBT-2.5-13B-Text基于中文和英文进行预训练。

开源后的优势

  • 直接调用:开发者可以直接使用大模型进行对话。

  • 继续训练:可以在官方训练的基础上使用自定义语料库继续训练。

  • 微调训练:可以对大模型进行微调训练以满足特定下游任务的需求。

联系方式

超对称科技的BBT模型旨在为开发者提供强大的预训练模型,以支持各种自然语言处理任务,并促进开源社区的发展。

瑞哈希信息科技的人工智能工具导航网页是一个包含全网生成式AI人工智能的AI工具导航宝塔、AI写作、AI绘画、AI设计、AI办公、AI视频、AI语音、AI音乐、AI论文、AI简历、AI数字人、文本转语音等、还包括小红书文案生成器、吐司Al、AIPPT、ChatPPT等常用AI工具,欢迎大家使用浏览本网页、我们将持续更新更多便捷AI工具,力求给大家带来极致的使用体验!

13829979319 CONTACT US

公司:惠州瑞哈希信息科技有限公司

地址:广东省惠州市鹅岭西路龙西街3号政盈商务大厦5层F1-2单元

Q Q:2930453612

Copyright © 2021-2024 惠州瑞哈希信息科技有限公司

粤ICP备2023038495号-2

咨询 电话:13825477149
微信 微信扫码添加我
回到首页