核心技术
-
AI算力融合架构 CalFusion™
AI算力融合技术CalFusion支持多层次、灵活透明的计算核心融合和扩展。允许用户便捷地在封装基板层面及PCB层面,利用多颗AI芯粒/芯片进行堆叠与扩展,从而构建不同算力的AI解决方案,满足不同规格与成本需求的AI应用场景。
CalFusion技术在软件层面实现了将不同数量的AI芯粒/芯片呈现为单一AI处理器,该技术提供透明统一的编程接口,使用户无需针对每个AI芯粒/芯片分别进行编程,大幅降低了开发难度,提升了AI模型部署的效率与灵活性。
-
-
快速AI算法部署框架 CalSpeed™
快速AI算法部署技术CalSpeed打造了高效易用的AI算法部署框架和软件开发环境。
CalSpeed技术所构建的框架不仅提供优化器、编译器、驱动和运行时组件、性能评估器、跟踪调试器等常规组件,还为可扩展多模态计算核心提供了自适应算力切分技术。这一独特技术能够根据AI算法类型、芯粒的连接拓扑结构以及预设的性能目标,自动实现多芯粒系统中的算力/任务分配。
CalSpeed技术广泛支持多种操作系统和部署环境。用户既可以在x86系统的主流AI框架中,直接通过标准API调用AI加速单元,也可在嵌入式环境内通过原粒半导体提供的统一API调用AI加速单元。
-
-
多模态AI计算核心 CalCore™
多模态AI算力核心设计技术CalCore能够实现算法通用性和计算效率的平衡统一。
CalCore技术灵活应对当前AI算法多样性的发展趋势,特别针对多模态大模型等新型应用进行优化,同时高效支持传统的神经网络算法,并能不断扩充对未来新型AI算子的支持。
CalCore技术支持主流的AI推理计算精度(如FP32, FP16, BF16, FP8, INT8, INT4等),显著提升了AI模型部署的兼容性,缩短了部署周期。
CalCore技术采用了先进的训推一体计算架构设计,支持在边缘端进行模型训练和微调,从而实现全新的AI算法演进范式,满足在数据隐私要求下的模型演进需求,同时减轻了数据中心的数据传输负担和计算压力。
-