乾元BigBangTransformer

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

标签:

BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务

    数据统计

    数据评估

    乾元BigBangTransformer浏览人数已经达到 5K,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如: 乾元BigBangTransformer的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找 乾元BigBangTransformer的站长进行洽谈提供。如该站的IP、PV、跳出率等!

    关于 乾元BigBangTransformer 特别声明

    本站 大神AI导航提供的 乾元BigBangTransformer都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由 大神AI导航实际控制,在 2024年5月28日 上午10:45收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除, 大神AI导航不承担任何责任。

    相关导航

    暂无评论

    暂无评论...

    网址设置

    网址样式切换

    详细

    网址卡片按钮

    显示

    布局设置

    左侧边栏菜单

    展开

    搜索框设置

    自定义搜索框背景

    • 静图

      光线

    • 视频

      绽放-视频

    自定义搜索框高度

    • 聚焦
    • 信息
    • 默认
    自定义设置