Methods 电子书

直面AI(中文版)

Methods-贸泽技术与解决方案杂志,及时了解技术创新与工程设计方面的重要资讯。

Issue link: https://trendsintech.mouser.com/i/1540278

Contents of this Issue

Navigation

Page 34 of 42

搜索不同,随机搜索可以更高效地探 索参数空间,通常只需较少的求值次 数就能找到最优或接近最优的设置 (图3)。这样的高效率使其在计算资 源和时间有限的嵌入式系统中尤为 有用,可加快调优速度并减少开销。 贝叶斯优化 贝叶斯优化是一种更复杂的方法,它 通过迭代改进来搜索最优的超参 数。这种策略利用先前的求值结 果来指导下一组实验,可以减少 对计算成本高昂的穷举搜索的需 求,因此特别适用于嵌入式系统。 优化算法 高效的优化算法对于在训练过程中加 速模型收敛和减少资源消耗至关重要。 梯度下降 梯度下降优化算法的各种变体,如随机 梯度下降算法(SGD)、Adam算法和 RMSprop算法,在收敛速度、稳定性和 内存要求方面各有优劣。例如,Adam 算法因其自适应学习率而得到广泛应用, 这使其在嵌入式ML中既稳健又高效。 自适应优化 AdaGrad和Adam等算法会在训练 过程中动态调整学习率。这种自适应 性有助于模型以更少的迭代次数更 快地收敛,从而节省计算资源 这 正是嵌入式系统必须考虑的因素。 模型训练 对于嵌入式系统而言,从头开始训练 ML模型不仅计算成本高、耗时长,而 且往往不切实际。利用预训练模型和 先进的训练策略可以显著减少工作量。 微调 微调涉及调整预训练模型的特定层,而 不是从头开始构建模型。这种方法既能 为特定任务定制模型,又能节省资源。 迁移学习 这种技术可以利用为类似任务开发的 预训练模型,能够显著降低训练的计 算成本。例如,为物体识别而训练的 模型可针对嵌入式设备上的特定物 体进行调整,从而节省时间和精力。 联邦学习 将模型在多个设备上进行训练,无需 将原始数据传送到中央服务器。这 种方法降低了网络需求,保护了用 户隐私,并实现了分布式训练,因 此非常适合边缘和嵌入式系统。 硬件感知模型设计 在设计模型时考虑到硬件规格,从 而尽可能提高效率和性能。 • 神经架构搜索(NAS):NAS技术可自 动设计针对特定硬件进行优化的模 型,同时兼顾精度和计算要求。 • 硬件加速:利用图形处理器(GPU)、 张量处理单元(TPU)或神经处理单 元(NPU)等专用硬件可以加速训练 和推理,这对提高嵌入式设备的功耗 和时间效率至关重要。 • 硬 件定制框架:利用为特定硬件平 台量身定制的框架,如TensorFlow Lite、ONNX Runtime或Edge Impulse, 可以优化受支持嵌入式硬件的推理 性能。 • 节能: 使用GPU、NPU或数字信号处 理器(DSP)等低精度计算和硬件加 速器,能够尽可能降低功耗,延长电 池供电设备的续航时间。 • 流水线优化: 将模型计算组织到高效 的流水线中,可减少延迟,确保实时 应用中的快速响应。 • 内存管理: 对内存的分配和释放进行 高效管理,可防止内存泄漏,并优化 模型在随机存取内存(RAM)有限的 设备上的性能。层融合和就地计算等 图3:网格搜索会穷举所有可能的组合进行求值,而随机搜索 只对一个子集进行采样,在许多情况下能更快地得出结果。 (图源:Green Shoe Garage,贸泽重新绘制) | 34

Articles in this issue

view archives of Methods 电子书 - 直面AI(中文版)