生成式人工智能即将革新嵌入式系统吗?ChatGPT 和 Gemini 等大型语言模型 (LLM) 的出现,展现了生成式人工智能的巨大潜力,但这些模型资源消耗巨大,需要强大的计算能力。硬件资源有限的嵌入式系统如何才能利用这项技术呢?答案在于适应和创新。
## 生成式人工智能为嵌入式系统带来的优势
尽管面临挑战,生成式人工智能对嵌入式系统的吸引力依然强大。它能够“记忆”并理解新数据的上下文,为构建更智能、更自主的系统打开了大门。这意味着更好的自然语言理解、文本生成、复杂指令的执行以及对传感器输入更智能的响应。试想一下,智能眼镜可以提供实时翻译,或者医疗设备可以学习用户行为并做出自主决策。这些可能性正在推动边缘计算领域对生成式人工智能的需求。
## 克服硬件限制
大型语言模型 (LLM) 的内存占用通常以 TB 为单位,这构成了一个巨大的障碍。即使采用量化等技术,将这些模型缩小到嵌入式系统的限制范围内也几乎是不可能的。解决方案在于完全绕过语言模型(LLM),转而采用专为资源有限环境设计的模型。小型语言模型(SLM)、卷积神经网络(CNN)和循环神经网络(RNN)结合生成式人工智能元素,正逐渐成为可行的替代方案。
## 控制电路的未来
这些专为边缘计算量身定制的新型人工智能模型对控制电路提出了独特的要求。如今的人工智能电路在人脸识别和关键词识别等任务上表现出色,能够达到每秒数百千兆运算(GOPS)。然而,到2030年,边缘计算的生成式人工智能需要实现每秒10万亿次运算(TOPS)的飞跃。这就需要结合CPU、GPU和专用神经处理单元(NPU)的先进架构,同时还要保持能效和成本效益。嵌入式系统的未来在于能够处理生成式人工智能计算需求的控制电路,从而为各种应用带来智能和自主能力。




