猎户星空大模型,为企业应用而生
猎户星空大模型为企业应用而生
用得好 · 用得起 · 用得安心全新发布 Orion-14B 基座模型
全新发布
Orion-14B 基座模型
Orion-14B 基座模型
百亿参数大模型基座能力行业领先
INT4量化后的性能损失低于1%
支持320Ktoken长度
700亿以下参数基座模型中文第一
微信扫码加入
猎户星空大模型微信群
400-898-7779
开源社区:
评测指标
基于第三方机构OpenCompass独立评测结果
性能亮点
百亿级模型SOTA,媲美千亿模型
14B参数的中等规模,在整体表现上达到了20B以下模型SOTA
支持 320K超长上下文,「大海捞针」近乎完美
支持 32万 tokens 的上下文能够一次性接受并处理约 45 万汉字的输入内容准确提取关键信息,实现长文本中「大海捞针」
企业大模型应用开发者的最佳选择
- 大模型套件全家桶,适配多个场景
- INT4量化后的性能损失低于1%
多语言能力强
中文、英语、日语、韩语评测,在20B以下参数模型中均为第一
技术优势
顶级团队
来自于Facebook总部、Yahoo总部、百度等全球顶级大厂的上百名顶级算法科学家
算法理解
技术路线从DNN、attention、Bert到LLM, ASR\TTS\NLP全栈追踪行业技术演进
场景认知
上千家企业应用适配
应用打磨
全球20亿用户级应用打磨经验
数据积累
7年数据积累,百亿级真实用户query数据,数十万亿级别token数据
用得好的企业应用大模型
大模型套件全家桶; 专业场景能力,百亿级模型SOTA,媲美千亿模型
通用对话微调
20B以下开源模型里,通用能力最佳的对话模型
插件微调
Agent, ReAct, Prompting能力, 接近千亿级模型效果
RAG微调
知识边界控制能力, 回答精准度, 接近千亿级模型效果
长token微调
支持320K 长度token,开源模型中,支持token最好的模型
知识抽取微调
将非结构化数据转化为结构化数据
问答对生成微调
在保证知识覆盖度的前提下,生成问答对
日韩文微调
日、韩文水平在20B以下开源模型中最佳
猎户星空大模型
用得起的企业应用大模型
适合企业应用
INT4量化后模型大小减少70%,推理速度提升30%,性能损失小于1%
千元级显卡即可运行
如NVIDIA RTX 3060,可实现每秒31 token,约50个汉字
用得起的企业应用大模型
适合企业应用
INT4量化后模型大小减少70%,推理速度提升30%,性能损失小于1%
千元级显卡即可运行
如NVIDIA RTX 3060,可实现每秒31 token,约50个汉字
用得安心的企业应用大模型
私有化部署
大模型服务器可放置于企业内网,所有数据不连公网
免费开源可商用,社区技术支持
可访问Hugging Face、ModelScope、GitHub社区下载