核心技术
-
AI算力融合架构 CalFusion™
原粒半导体独有的AI算力融合技术CalFusion支持多层次灵活透明的计算核心融合和扩展,用户可以轻松利用多颗CalCore芯粒或芯片在封装基板层面以及PCB层面进行堆叠和扩展,构建不同算力的AI解决方案,满足不同规格和成本需求的AI应用场景。
软件层面,CalFusion技术使得不同数目的AI芯粒/芯片呈现为单一AI处理器,透明统一的编程接口使得用户无需为每个AI芯粒/芯片分别编程,极大地降低了用户的开发难度,提高了AI模型部署效率和灵活性。
-
-
快速AI算法部署框架 CalSpeed™
配合可扩展AI芯粒方案,原粒半导体结合多年的产业化AI研发经验,提供了基于CalSpeed技术的高效易用的AI算法部署框架和软件开发环境。
CalSpeed框架除了提供必备的优化器、编译器、驱动和运行时组件、性能评估器、跟踪调试器等常规组件外,针对原粒半导体的可扩展多模态计算核心提供了独有的自适应算力切分技术,可以根据AI算法类型、芯粒的连接拓扑以及性能目标自动完成多芯粒系统的算力/任务切分。
CalSpeed支持多种操作系统和部署环境,用户既可在x86系统的流行AI框架内直接通过标准框架API使用AI加速单元,也可在嵌入式环境内通过我们提供的统一API来使用AI加速单元。
-
-
多模态AI计算核心 CalCore™
原粒半导体凭借领先的通用多模态AI算力核心架构设计,实现了算法通用性和计算效率的平衡统一。
CalCore技术灵活适应当前多样性的AI算法发展趋势,除了能高效支持传统的神经网络算法,特别针对多模态大模型等新型应用进行优化,并能不断扩充对未来新型AI算子的支持。
CalCore技术支持主流的AI推理计算精度(如FP32, FP16, BF16, FP8, INT8, INT4等),极大提高了边缘端AI模型部署的兼容性,缩短了部署时间。
CalCore技术还具有先进的训推一体计算架构设计,支持在边缘端的模型训练和微调,从而实现全新的AI算法演进范式,满足在数据隐私要求下的模型演进需求,并降低数据中心的数据传输及计算负荷。
-