官网:https://bbt.ssymmetry.com/model.html
本网页内容由瑞哈希信息科技有限公司收集,排名不分先后,如遇收费应用自行判断,如有侵权请联系删除!
BBT-乾元:基于GPT Decoder-only架构的大规模预训练模型。
BBT-1-1B:10亿参数的金融模型,使用金融中文语料库1000亿tokens进行预训练。
BBT-2-12B-Text:120亿参数的基础模型,基于中文700亿tokens进行预训练。
BBT-2.5-13B-Text:130亿参数的基础模型,基于中文+英文2000亿tokens进行预训练。
多数据源覆盖:预训练语料库覆盖14个高质量数据源,如书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等。
高性能:BBT-2-12B-Text基于中文进行预训练,BBT-2.5-13B-Text基于中文和英文进行预训练。
直接调用:开发者可以直接使用大模型进行对话。
继续训练:可以在官方训练的基础上使用自定义语料库继续训练。
微调训练:可以对大模型进行微调训练以满足特定下游任务的需求。
模型下载申请:通过电子邮件(model@ssymmetry.com)申请模型下载。
瑞哈希信息科技的人工智能工具导航网页是一个包含全网生成式AI人工智能的AI工具导航宝塔、AI写作、AI绘画、AI设计、AI办公、AI视频、AI语音、AI音乐、AI论文、AI简历、AI数字人、文本转语音等、还包括小红书文案生成器、吐司Al、AIPPT、ChatPPT等常用AI工具,欢迎大家使用浏览本网页、我们将持续更新更多便捷AI工具,力求给大家带来极致的使用体验!
Copyright © 2021-2024 惠州瑞哈希信息科技有限公司