add .gitee and .github folder for ISSUE/PR template and minor update on README
中文 | View English
Omni-Infer是一套专为昇腾硬件平台定制的强大推理加速工具集,完全兼容业界目前主流的开源大模型推理框架(比如vLLM等),旨在提供高性能、企业级推理能力,具备原生支持且功能集持续扩展。
如需将Omni_Infer集成到项目中,请参考安装指南和文档获取详细的设置说明和API参考。
我们欢迎您为Omni_Infer贡献代码!请查看贡献指南,并通过Gitee Issues提交拉取请求或问题。
Omni_Infer基于MIT许可证发布。
©Copyright 2023 CCF 开源发展委员会 Powered by Trustie& IntelliDE 京ICP备13000930号
Omni-Infer:基于昇腾的超大规模MoE模型推理加速技术
中文 | View English
Omni-Infer是一套专为昇腾硬件平台定制的强大推理加速工具集,完全兼容业界目前主流的开源大模型推理框架(比如vLLM等),旨在提供高性能、企业级推理能力,具备原生支持且功能集持续扩展。
核心特性
High-Level 架构图
快速开始
如需将Omni_Infer集成到项目中,请参考安装指南和文档获取详细的设置说明和API参考。
贡献指南
我们欢迎您为Omni_Infer贡献代码!请查看贡献指南,并通过Gitee Issues提交拉取请求或问题。
许可证
Omni_Infer基于MIT许可证发布。