封神榜大模型

探索先进模型技术

以上图片均由太乙-stablediffusion模型生成
Slide 2
Slide 3
Slide 4
robot-logo

封神榜 - 大模型开源体系

"封神榜"中文最大的开源预训练模型体系,目前已有超过98个开源预训练模型。 目前已经开源了第一个中文Stable Diffusion,开源了中文第一个CLIP模型, 二郎神UniMC等模型多次获得FewCLUE / ZeroCLUE等榜单冠军。

将数据和算力沉淀成具有认知能力的预训练模型,目标是成为海量下游任务和各种算法创新研究的坚实基础。

bg-img
先进大模型技术
让技术光亮惠及更多人

多模态

知识检索

代码生成

cubic-img
先 进 研 究 成 果
[1] BioBART: Pretraining and Evaluation of A Biomedical Generative Language Model. [↗]
[3] MAP: Multimodal Uncertainty-Aware Vision-Language Pre-training Model. [↗]
[4] Unified BERT for Few-shot Natural Language Understanding. [↗]
[5] Towards No.1 in CLUE Semantic Matching Challenge: Pre-trained Language Model Erlangshen with Propensity-Corrected Loss. [↗]
[6] Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence. [↗]
[7] Flat Multi-modal Interaction Transformer for Named Entity Recognition. [↗]
[8] TCBERT: A Technical Report for Chinese Topic Classification BERT. [↗]
[9] Ziya-Visual: Bilingual Large Vision-Language Model via Multi-Task Instruction Tuning. [↗]
[10] Ziya2: Data-centric Learning is All LLMs Need. [↗]
[11] Never Lost in the Middle: Improving Large Language Models via Attention Strengthening Question Answering. [↗]
封神榜一体机
先进技术实现开箱即用,客户场景数据实现私域闭环
cubic-img
关 于 我 们
认知计算与自然语言研究中心 (CCNL,Cognitive Computing and Natural Language) 致力于在预训练大模型时代,建设认知智能的基础设施,推动AI学术和产业发展。CCNL在预训练模型生产、少样本/零样本学习、受控文本生成、自动化机器学习等技术领域,都达到了领先水平。多家企业基于我们的模型和技术训练出属于自己的模型,衍生模型生态已遍布各行各业。我们的目标是让机器像人一样去思考,创造具备认知能力的AI数字生产力,促进数字经济发展,让世界变得更美好。
cubic-img