
近日,,,,艾速AI研发部总经理时文涛受邀出席“2025年GDC全球开发者先锋大会”《AI焕新,,塑医疗未来》论坛,,,并以《模塑医疗,,共WiN-AI》为主题,,,发表了精彩演讲。。。。在会议现场众多行业同仁的共同见证下,,艾速与卫宁健康联合发布了内置“双模+双应用”一体化交付解决方案——WiN-AI卫信云。。。

时文涛指出,,医疗大模型在实际应用落地中的主要难点是“用不起”、、、、“不会用”、、、、“用不好”,,,重点还是在“用”。。有了模型,,,并不意味着真正做好了应用,,大模型只是一个工具,,,一种能力,,,,最终还是要回归到实际业务的应用。。。如何将大模型能力与业务流程和应用有效结合,,,这是规划者更应该关注的。。。。
为此,,,,艾速与卫宁健康联合打造了一体化交付解决方案——WiN-AI卫信云,,,,以「线上线下一朵云」为基座,,通过线下智算升级与线上能力订阅,,,为医疗用户提供从模型训练、、推理加速到应用创新的全栈服务。。。全新升级版WiN-AI卫信云,,,可内置通用与专用双模型、、、、AI算力调度平台、、、算力资源,,,,以及卫宁健康AI双应用(医疗大语言模型WiNGPT 2.8、、、、人工智能医护助手WiNEX Copilot)。。

更灵活的扩展性,,让未来模型管理"化繁为简"
各大模型厂商你追我赶,,模型的能力日新月异。。从长远发展来看,,,用户不能将自己禁锢于某一个基模型中,,,,更不能被某个固定版本所束缚,,,未来的发展需要的是灵活与开放,,是持续进化和无限可能。。艾速AICP算力平台能够有效管理各种开源的基模型和版本,,以及客户的私有模型。。。。无论是基模型的获取更新,,,,还是二次微调与训练、、、推理部署、、业务高可用,,艾速AICP算力平台都能化繁为简,,让技术的洪流在有序的河道中奔涌。。

全面优化推理性能,,,体验更佳,,,成本更低
艾速AICP算力平台的部署在多实例、、、、并发推理场景中可实现5-10倍的性能提升,,,大模型并发度更高、、、吞吐量更大、、推理响应延时更低。。。。从而使AI加持下的WiN-AI卫信云能够全面提升用户的使用体验,,,,让用户在AI应用构建及实际使用时,,,资源投入更低、、、体验更优。。。
- 成本重构:WiN-AI卫信云内嵌推理优化模型,,,,通过算力资源精准调度,,实现最大推理GPU成本下降75%,,,资源利用率达行业前沿水平。。
- 性能跃迁:相较开源方案(如Ollama),,在32B模型64并发场景下,,,,问答吞吐量提升10倍,,,长文本处理稳定性提升300%。。。。

硬件资源:INT4用2*4090,,,,FP16用4*4090
模型动态加密,,,,保障模型知识产权和安全
模型通过动态加密的方式,,,,防止恶意攻击和盗取,,让模型服务上线即安全,,性能损耗低于5%。。。且模型通过身份认证、、数据集和模型文件静态落盘加密的方式,,,可提供训练全生命周期安全防护。。。。
- 模型动态加密技术:采用结构加密(增加伪分支),,权重加密(替换为伪权重),,,算子加密(增加伪算子)的方式对模型结构进行混淆加密,,,,保护模型运行态安全。。。。
- 自适应加密算法:设计自适应的加密算法,,能够针对不同模型,,,,自适应调整和组合不同强度的结构加密/权重加密/算子加密技术,,保护模型安全的同时,,,也保障了部署的可行性和推理性能。。
联合行业生态,,软硬深度优化,,实现自主可控
艾速联合了国内多家GPU厂商,,,,进行深度的软硬协同优化,,,实现了能够对标国际厂商的推理性能。。。。从以下测试数据可以看出,,,,当承载相同大模型时,,,,在主流34B大模型下,,,经过软硬协同优化后的国产卡性价比显著高于国际厂商,,,,性能对比结果达到137.5%!

在科技浪潮奔涌的时代,,,,艾速与卫宁健康以默契的协作与深度的融合,,迅速应对行业前沿技术带来的挑战与机遇,,不断升级优化联合解决方案。。。
2020年,,,,双方正式发布了联合打造的一体化解决方案,,,,播下了“卫信云”的种子,,,以“软硬一体化”的方式开辟智慧医疗新路径。。2024年,,,,随着业务需求的迭代,,这颗种子在创新的沃土中,,成长为全新升级的WiN-AI卫信云——艾速面向AIGC的新一代云平台与卫宁健康WiNEX软件的创新融合,,,性能、、、、安全、、交付便捷性实现质的飞跃。。2025年初,,,,双方再度以DeepSeek为基石,,,,推出内置“双模+双应用”的WiN-AI卫信云,,以更高效、、、更经济的方式为医疗行业注入智能化新动能。。。。
我们相信,,,,唯有以自主创新为帆,,,,以生态合作为浆,,,,才能让信息技术在浩瀚海洋中乘风破浪,,,,让百花齐放的科技之光,,,照亮每一个角落,,,赋予用户更多选择,,,,让数字化的便利惠及万千大众。。
- 友情链接:
友情链接:



