Methods-贸泽技术与解决方案杂志,及时了解技术创新与工程设计方面的重要资讯。
Issue link: https://trendsintech.mouser.com/i/1540278
搜索不同,随机搜索可以更高效地探 索参数空间,通常只需较少的求值次 数就能找到最优或接近最优的设置 (图3)。这样的高效率使其在计算资 源和时间有限的嵌入式系统中尤为 有用,可加快调优速度并减少开销。 贝叶斯优化 贝叶斯优化是一种更复杂的方法,它 通过迭代改进来搜索最优的超参 数。这种策略利用先前的求值结 果来指导下一组实验,可以减少 对计算成本高昂的穷举搜索的需 求,因此特别适用于嵌入式系统。 优化算法 高效的优化算法对于在训练过程中加 速模型收敛和减少资源消耗至关重要。 梯度下降 梯度下降优化算法的各种变体,如随机 梯度下降算法(SGD)、Adam算法和 RMSprop算法,在收敛速度、稳定性和 内存要求方面各有优劣。例如,Adam 算法因其自适应学习率而得到广泛应用, 这使其在嵌入式ML中既稳健又高效。 自适应优化 AdaGrad和Adam等算法会在训练 过程中动态调整学习率。这种自适应 性有助于模型以更少的迭代次数更 快地收敛,从而节省计算资源 这 正是嵌入式系统必须考虑的因素。 模型训练 对于嵌入式系统而言,从头开始训练 ML模型不仅计算成本高、耗时长,而 且往往不切实际。利用预训练模型和 先进的训练策略可以显著减少工作量。 微调 微调涉及调整预训练模型的特定层,而 不是从头开始构建模型。这种方法既能 为特定任务定制模型,又能节省资源。 迁移学习 这种技术可以利用为类似任务开发的 预训练模型,能够显著降低训练的计 算成本。例如,为物体识别而训练的 模型可针对嵌入式设备上的特定物 体进行调整,从而节省时间和精力。 联邦学习 将模型在多个设备上进行训练,无需 将原始数据传送到中央服务器。这 种方法降低了网络需求,保护了用 户隐私,并实现了分布式训练,因 此非常适合边缘和嵌入式系统。 硬件感知模型设计 在设计模型时考虑到硬件规格,从 而尽可能提高效率和性能。 • 神经架构搜索(NAS):NAS技术可自 动设计针对特定硬件进行优化的模 型,同时兼顾精度和计算要求。 • 硬件加速:利用图形处理器(GPU)、 张量处理单元(TPU)或神经处理单 元(NPU)等专用硬件可以加速训练 和推理,这对提高嵌入式设备的功耗 和时间效率至关重要。 • 硬 件定制框架:利用为特定硬件平 台量身定制的框架,如TensorFlow Lite、ONNX Runtime或Edge Impulse, 可以优化受支持嵌入式硬件的推理 性能。 • 节能: 使用GPU、NPU或数字信号处 理器(DSP)等低精度计算和硬件加 速器,能够尽可能降低功耗,延长电 池供电设备的续航时间。 • 流水线优化: 将模型计算组织到高效 的流水线中,可减少延迟,确保实时 应用中的快速响应。 • 内存管理: 对内存的分配和释放进行 高效管理,可防止内存泄漏,并优化 模型在随机存取内存(RAM)有限的 设备上的性能。层融合和就地计算等 图3:网格搜索会穷举所有可能的组合进行求值,而随机搜索 只对一个子集进行采样,在许多情况下能更快地得出结果。 (图源:Green Shoe Garage,贸泽重新绘制) | 34

