Methods 电子书
直面AI(中文版)
Methods-贸泽技术与解决方案杂志,及时了解技术创新与工程设计方面的重要资讯。
Issue link:
https://trendsintech.mouser.com/i/1540278
Contents of this Issue
Navigation
cover
previous page
9
next page
back cover
Page 9 of 42
9 |
Articles in this issue
直面AI
特约作者
Becks Simpson
Robert Dempsey
Brandon Lewis
Kyle Dent
Michael Parks
技术撰稿人
Matt Campbell
Vince Sosko
设计
Robert Harper
特别感谢
Kevin Hess
市场营销高级副总裁
Russell Rasor
全球供应商营销副总裁
Heidi Elliott市场通讯总监
Raymond Yin, Director 技术内容总监
Image
Figure
目录
前言
作者:Matt Campell、Vince Sosko
3
AI:无处不在
作者:Becks Simpson
5
人工智能应用的悖论
作者:Robert Dempsey
11
重塑AI数据中心
作者:Brandon Lewis
17
21
信息图
通往人工智能之路
重新审视AI的道德困境
作者:Kyle Dent
23
克服嵌入式ML面临的制约因素
作者:Michael Parks
31
人工智能监管框架
36
贸泽、贸泽电子、
Mouser
与
Mouser Electronics
是
Mouser Electronics (1)
公司的注册商标。
所有出现在此的其他产品、公司名称及标识均可能分属于各公司所有。
文中所含参考设计、概念图以及其他图片仅供参考。
版权所有
©
2025 Mouser Electronics, Inc. — TTI
旗下公司
前言 (1)
前言
作者:
Matt Campbell
、
Vince Sosko
,贸泽电子专稿
人工智能(AI)不再是遥不可及的梦想——它已经来到了我们身边,积极塑造着各行各业的工作流程和我们的日常生活。当我们直面今天的人工智能,就意味着要与一股快速发展的力量打交道,它挑战着以往我们对原创性、决策能力和人类能动性的假设。在探索AI对技术、伦理和未来社会的影响时,我们不仅要思考它能够做什么,还要思考它应该做什么。这不仅仅是技术人员之间的事情;它还关系到政策制定者、商界领袖、教育工作者,以及受到AI技术进步影响的每一个人。
我们深入探讨AI时,它还只是一个尚处萌芽阶段的设想。在那一期《Methods》中,我们侧重于让大家理解AI这个新概念。现在,我们仍然需要向大家介绍AI领域的新知,但专注点已经大不相同。今天的AI已成为全球股市涨跌的风向标。它是各行各业趋之若鹜的流行话题,大大小小的企业为它投入了数十亿美元,押注它终将成为一股变革力量。
上一次
当炒作开始甚嚣尘上时,质疑的浪潮便应运而生。在"万物皆可AI"的背后,AI究竟会如何改变员工和雇主的日常工作?企业AI应用带来的新鲜感和AI算法不透明的特点交织在一起,构成了一个没有唯一解的二元方程。工程师可以轻松拥有AI工具,但只有在能够解决实际问题的情况下,这些工具才有意义。我们总觉得用AI改进工作流程是一件很有魅力的事情,但最终每个人都要扪心自问:"算法真的比我更擅长这份工作吗?"
随着AI融入到工业、医疗保健、农业、交通运输等各个领域的现有系统中,它与这些领域存在许久的知识结构和监管框架发生了碰撞。AI一方面带来了前所未有的能力,但它在现阶段仍有一些局限性,包括数据中可能存在偏见、难以实现自动化开发,以及更大程度依赖智能系统所带来的社会影响。然而,我们不能让恐惧和怀疑掩盖AI带来的真正机遇——让生产流程更高效、让数据分析更深入、让我们曾以为无法克服的挑战迎刃而解。我们需要在谨慎和进步之间取得平衡,而且这一点非常重要。
AI将超大规模数据中心的力量交到了你我的手中。这种"超算资源人人可用"的场景带来了新的问题:我们究竟应该在监管之下谨慎前行,还是应该优先考虑无拘无束的创新?这个问题很难在现有的法律和道德框架内寻找到满意解答,因为这些框架本来就不是为处理这种前所未有的问题而建立的。随着AI的每一次迭代,我们也必须不断更新我们对这项技术如何融入更广泛的社会、经济和道德环境的理解。
如今,AI再也不只是一种可以轻描淡写的技术趋势(或许从一开始就不应该是)。我们要考虑的,早已不是要不要用AI,而是如何才能负责任地用好它。我们现在对如何开发、监管和应用AI所做的选择,将决定这项技术在未来数十年的发展轨迹。我们不应该抵制变革;我们必须设法利用AI的潜力,同时打造出能够将透明度、公平性和人类福祉放在首位的系统。本期《Methods》将探讨这些紧迫问题,深入剖析该领域的现状和未来发展方向。
不论您抱着兴奋还是怀疑的态度,都必需承认AI时代已经到来。本期杂志中,我们意在帮助大家将AI融入到您作为工程师和普通人的日常工作和生活中。除了行业专家的深入技术探讨外,我们还邀请了技术和分析领域的跨界专家,帮助您将模糊的AI新知提炼为实用知识,得心应手地面对AI变革。
Figure (1)
关于作者
Matt是贸泽电子的技术营销工程师, 在得州农工大学攻读电气工程学位期间,Matt意识到自己擅长文字表达更胜于解微积分,因而在其职业生涯中始终致力于探索尖端技术背后的故事。工作之余,他喜欢远离喧嚣、收集旧物和拍摄日落。
Figure (2)
关于作者 (1)
Vince是贸泽电子的技术内容专家, 研究语法规则或探索新旧科技之余,他还喜欢在家与女儿们享受水疗时光,或去欣赏一场精彩的音乐会。他是迈阿密大学和约翰卡罗尔大学的优秀毕业生,专业方向为修辞学与写作。
AI:无处不在 (1)
AI:无处不在
LLM之外还有哪些AI?
作者: (1)
作者:
Becks Simpson
,贸泽电子专稿
人工智能(AI)似乎无处不在。无论公司规模大小,它都会突然出现在网站的搜索栏上。在撰写电子邮件或者在共享文档中编写技术说明时,它也会突然出现:"想要AI来帮你吗?"每天,都会有新的AI解决方案出现,为用户提供"用数据聊天"或者"用文档聊天"的功能。
在过去几年间,AI经历了令人兴奋的创新和普及周期,但随着现代大语言模型(LLM)的出现,将AI融入到每个产品并将其作为解决企业问题的全面方案的竞赛变得更加激烈。大多数AI驱动的新功能都在某种程度上涉及这些LLM,它们在从生成内容到总结内容的各种书面任务中都提供了令人印象深刻的功能。随着AI逐渐渗透到法律、会计和软件工程等越来越精细复杂的领域,人们可能会认为所有问题都可以用这种AI来解决;然而,事实并非如此。大量的使用案例和后续分析表明,尽管LLM驱动的生成式AI被炒得火热,但它并不是万能的。本文将探讨从计
LLM无所不能?言过其实
LLM是AI领域功能最强大、影响最广泛的形式之一,现阶段的炒作会让企业相信它可以成功地应用到所有的企业用例中。然而,这种想法是错误的。首先,并非所有问题都是基于语言的。LLM通常依赖的一个先决条件,是输入数据和所需的输出都基于文本,包括文档、描述、指令、摘要等。然而,有些数据纯粹是结构化的数字形式,数量巨大,而且随着时间推移会呈现出错综复杂的基本模式(例如,涵盖多年交易、数值和消费金额的银行数据)。
其他用例则需要将图像作为输入,如卫星数据或医学扫描数据。虽然有些LLM具备多模态功能,但它们并不能很好地泛化到这些更复杂或定制的图像需求。其他应用,如预测性维护,可能会以录音或其他传感器数据(包括时间序列和多模态数据)的形式进行输入,基于语言的生成式AI很可能完全帮不上忙。
其次,并非所有问题的解决方案都是生成式的。有些解决方案需要的恰恰是回归或分类。虽然它们之间存在一些重叠——例如,在给定(范围足够小的)样本集的情况下,生成式AI可以根据要求进行分类,或者以类似回归的方式生成一个数字,但这些AI很可能并没有接触过这些模式,因而无法产生正确的输出。有时,问题是特定于某个数据集的,只有通过检查(也就是学习)整个数据集才能得到答案。
最后,生成式AI有时会矫枉过正。许多问题都有经过验证的数学或统计学解决方案,并不需要动用生成式AI。例如,物流配送中的调度和路线选择等应用就可以利用已有的路径优化算法。这些算法通常更容易实现,也更适合特定问题,因而更加准确,无需深度学习及其相关开销。
如果不用LLM,
那还有什么可以用?
当我们都在关注基于语言的生成式AI时,可能会忽略一个事实:世界上还存在其他同样令人惊叹的AI形式。在计算机视觉应用以及时间序列分析和RL方面,已经开发出与LLM具有相似复杂性和能力的深度学习模型。此外,传统的基于统计的ML在许多企业用例中仍然发挥着突出的作用。
计算机视觉
计算机视觉是AI的一个关键分支,它正在改变安全、医疗保健和制造等行业。例如,在网络安全领域,计算机视觉可用于分析监控系统的视觉数据,以检测异常情况并识别潜在的漏洞。在医疗保健领域,计算机视觉有助于通过医学影像诊断疾病,例如从放射扫描中检测癌症。同样,在制造业,它可以通过检测装配线上的缺陷来促进质量控制。这些应用依赖于深度学习技术,通过使用模仿人类视觉感知的算法,使系统能够"看到"并解读图像或视频等视觉数据。通常情况下,最常用的模型是卷积神经网络(CNN)或近期出现的视觉转换器(Vision Transfo
无论采用哪种底层模型,训练通常都包括三个步骤。在初始图像预处理过程中,对原始视觉数据进行清理和格式化后,视觉模型会将这些数据通过层级结构进行处理,这些层级结构会检测边缘、纹理和图案等特征,从简单结构开始,逐渐推进到复杂的形状和物体。通常情况下,这是一种监督学习;无论是分类任务还是物体检测任务,CNN都能预知其最初学习的图像内容。通过不断更新层级结构以更准确地预测目标标签,模型可以有效地"学习"输入图像中的内容。通过这种方式,系统最终将能够完成诸如将检测到的特征进行分类(如"恶性"与"良性")或精确定位其在
时间序列分析
时间序列分析在预测性维护和风险评估等AI应用中发挥着至关重要的作用。这类模型侧重于分析连续数据,如工业设备的传感器读数或金融交易日志,以识别模式、预测故障或评估风险。对于任何利用过去行为预测未来事件的应用而言,这一AI分支都至关重要,它能够基于先前数据进行预测,或在事件偏离预期模式时进行异常检测。例如,在预测性维护中,基于历史数据训练的AI模型可以预测机器何时可能发生故障,从而实现在故障发生前就开展维修,节约成本并减少停机时间。虽然AI驱动的时间序列分析通常依赖于能够自动学习复杂时间模式的深度学习技术,但
时间序列分析通常从初始数据预处理开始,对数据进行清理和转换,这对于传统方法和深度学习方法都是至关重要的一步。这可能涉及对数值进行归一化处理、以一致的时间间隔对数据进行重新采样,或删除可能影响结果的异常值。根据任务和可用数据的不同,会选择不同的模型。对于较简单的任务或数据稀缺的情况,统计模型(如ARIMA)通常用于异常检测或短期预测,因为它们能够高效地捕捉线性关系。相比之下,深度学习模型(如LSTM或GRU)则擅长识别较长数据序列中复杂的非线性模式。
GRU的训练方式类似于CNN,各层按顺序处理输入数据,以提取相关特征。不过,这些模型包含一些特殊机制,如记忆单元和门控结构,使它们能够保留序列中较早点的信息并对其进行优先排序,从而有效地"记住"随时间推移的关键模式。这使得它们在捕捉跨多个时间步长的依赖关系(如季节性趋势或长期相关性)时尤为有效。
机器学习
ML也是许多AI应用的基础。与通常需要大量数据集的深度学习不同,ML的统计方法并不复杂,可以有效地处理较小的结构化数据集,因此适合生物医学研究或药物发现等更细分的领域。ML涵盖一系列技术,从支持向量机和随机森林等监督学习模型,到K均值(k-means)聚类和主成分分析等无监督方法。监督学习算法依靠标注过的数据集来预测结果,可用于生物标记物发现等应用,其中临床因素可用于预测免疫疗法反应等。而无监督学习则可以识别数据中隐藏的模式或分组,例如根据购买行为对客户进行聚类,而无需预先定义类别。当计算效率和可解释性成
ML使用数学算法从数据中提取模式,并根据这些模式做出预测或决策。例如,随机森林是一种流行的集合学习方法,它结合了多种决策树来提高预测准确性并减少过拟合,因而在欺诈检测等任务中具有出色表现。大多数ML模型的训练过程包括将数据分成训练集和测试集,先在训练集上优化算法,然后在模型没有见过的测试集上验证其性能。与深度学习不同,这些方法通常训练速度更快、所需计算资源更少,并且可以深入发掘特征的重要性,因而是许多商业和科学用例的灵活选择。
强化学习
RL是一种独特的AI方法,侧重于动态环境中的决策制定。在这种方法中,智能代理通过与周围环境交互,并接收奖励或惩罚形式的反馈,来学习如何实现特定目标。不同于依赖已标注数据的监督学习,RL通过探索动作序列来尽可能提高长期奖励,因而非常适合需要自适应策略的应用。RL流程首先要定义用于对问题领域建模的环境,并指定状态、动作和奖励结构。智能代理通过迭代试错进行训练,通常使用Q学习或策略梯度方法等技术。在训练过程中,智能代理与环境交互时会收集数据,从而创建经验数据集,该数据集通常存储在重放缓冲区中,以供优化。智能代理
结语
如今,生成式AI屡屡抢占头条新闻的位置,但只要拨开LLM炒作的迷雾,就会发现,AI真正的实力在于其多样化的工具包,可以解决各行各业的企业面临的多方面挑战。计算机视觉使系统能够处理和分析视觉数据,从而改变医疗保健和制造业等领域。时间序列分析非常适合依赖序列数据模式的应用,如预测性维护和财务预测。ML可实现高精度、高效率统计,是生物医学研究和药物发现等任务中结构化数据集的理想选择。此外,RL能够很好地适应动态环境,可以为机器人和游戏等领域制定自适应策略。通过研究这些多样化的应用,我们可以清楚地看到,有效的AI
Figure (3)
i.MX 8M Plus
处理器
机器学习、机器视觉、多媒体和工业物联网的理想之选
Figure (4)
mouser.cn/nxp-i-mx-8m-plus
Figure (5)
关于作者 (2)
关于作者
Becks是Rogo的全栈AI负责人,Rogo是一家总部位于纽约的初创公司,旨在构建一个平台,让任何人都可以在没有数据科学背景的情况下分析自己的数据并从中获得经验。在业余时间,她还与Whale Seeker合作,这是另一家运用AI对鲸鱼进行检测的初创公司,旨在让工业发展与这些温和的巨兽和谐共存。她从事深度学习和机器学习领域的工作,致力于研究新的深度学习方法并直接应用这些方法来解决现实世界的问题、构建渠道和平台来训练和部署人工智能模型,以及为初创公司的人工智能和数据战略提供咨询服务。
人工智能应用的悖论 (1)
人工智能应用的悖论
作者:Robert Dempsey,贸泽电子专稿
人工智能 (AI) 处于技术创新的前沿,有望通过自动化和数据驱动的洞察力改变企业运营的多个方面。然而,虽然企业被提高效率和竞争优势的承诺所吸引,但仍有很多企业犹豫不决,不敢采用AI。人们对其"黑匣子"性质和AI幻觉等风险的担忧加剧了这一情况。
本文将探讨企业如何建立对AI的信任。通过明确界定AI的使用范围、提高AI模型的透明度,以及采取补充而非取代人工的协作方式,企业可以应对AI应用的复杂性,释放其变革潜力。
AI炒作与现实应用
AI将如何改变行业的愿景已经渗透到几乎每个领域。从医疗保健到金融再到零售,AI都有可能简化工作流程、加快决策速度并发掘新的商业机会。AI已经在数据分析、预测性分析、重复性任务自动化和自然语言处理方面展现出了巨大的潜力。这些应用因能够提高运营效率、降低成本并推动创新,对企业有着巨大的吸引力。
例如,在数据分析领域,AI可以处理海量数据集,以发现人类分析师无法发现的趋势、异常或模式。 在客户服务领域,AI驱动的聊天机器人可以处理大量咨询,提供快速响应,让人工客服人员能够专注于更复杂的问题。这些进步的魅力不容忽视,而将AI嵌入核心业务流程的可能性也让人兴奋不已。
尽管预测非常乐观,但企业采用AI的速度却出人意料地保守。据2021-2022 年的一项调查发现 ,超过70%的企业仍处于探索或试点阶段,只有一小部分企业大规模应用了AI。
1
这种最初的谨慎态度是由几个因素造成的。对未知的恐惧是一个重大障碍;对于许多高管来说,AI仍然是一个相对陌生的领域,让他们感到不安。许多企业领导者担心数据泄露、道德问题或自动决策的意外后果等潜在风险,更不用说部署和管理AI系统的技术复杂性问题了。
对数据使用、隐私和潜在偏见的监管审查加剧了这种情况。企业明白,AI部署不当可能会导致运营错误、声誉受损,甚至还要承担法律后果。因此,尽管AI有着令人振奋的前景,但企业在采用AI的过程中还是采取了缓慢、谨慎的态度。然而,在2023年生成式AI呈指数级增长之后,麦肯锡2024年的一份报告显示,72%的受访者确认至少在一项业务职能中采用了AI。
2
破解
AI
模型黑匣子问题
采用AI的另一个重大挑战是许多高级AI模型(尤其是使用深度学习和神经网络的模型)所具有的黑匣子性质。虽然这些系统能够处理输入并生成输出,但人类并不容易理解其决策背后的方式和原因。
之所以会出现这种不透明现象,是因为这些模型采用的复杂算法涉及数百万甚至数十亿个参数。例如,一个用于图像识别的深度神经网络可能由无数个层组成,每层都会从输入数据中提取不同的特征。这些层内的相互作用在数学上极为复杂,即使是专家也难以追踪导致特定输出的确切路径。
此外,AI模型通常依赖大量训练数据来学习模式并做出预测。它们所识别的关系和相关性是如此多面,以至于人类无法对其进行直截了当的解释。因此,利益相关者虽然拥有了一个强大的工具,但其决策过程在很大程度上是神秘的。
AI的黑匣子性质严重影响了企业和利益相关者对该技术的信任。如果无法了解AI的决策过程,就很难确保AI不会延续训练数据中的偏见。例如,对于使用AI审批贷款申请的金融机构,如果AI在未提供明确理由的情况下拒绝贷款,可能会让申请人感到沮丧,进而会因潜在的歧视而面临监管审查。
例如,某大型科技公司在使用招聘AI培训时,采用了反映其以男性为主的历史招聘模式的数据,导致更倾向于男性候选人。 由于缺乏透明度,这种偏见未能及时被发现,致使公司声誉受损,并引发了道德争议。此类公共事件凸显了缺乏透明度可能会导致人们对采用AI解决方案的不信任和犹豫,从而形成重大障碍,阻碍人类与AI系统之间的协作。
3
应对
AI
幻觉挑战
AI幻觉是指AI系统生成自认为合理或可信但实则错误、无意义或完全虚构的输出。幻觉通常出现在高级大型语言模型和生成式AI系统中,这些系统会根据学习到的数据模式预测和生成回复。例如,AI聊天机器人可能会对一个不存在的问题给出详细的答案,包括虚构的日期和数字,而用户在没有外部验证的情况下很难发现其中的错误。
例如,2023年,一名律师依赖AI语言模型提供的信息,无意中在法律文件中引用了不存在的法庭案例。AI自信地生成了案例名称、引文,甚至完全虚构的摘要,而律师将这些内容写入了正式的法庭文件。后来法院发现这些案例并不存在,导致涉案律师职业声誉受损,并受到处罚。
4
这种幻觉是一个严重的问题,因为它们看起来很准确,而用户可能缺乏专业知识来质疑所提供的信息。
AI幻觉带来的风险非常严重,尤其是当AI系统被整合到关键决策流程中时。不准确的输出可能会导致错误的商业策略、错误的政策决策或向公众传播虚假信息。在上述法律案例中,律师依赖AI生成的错误信息,危及了案件并引发了道德问题。
此外,随着AI生成的内容越来越多地反馈到未来模型的训练数据集中,风险也会进一步加剧。如果不对幻觉进行识别和过滤,它们就会成为新AI系统的训练数据;这会延续并放大错误,造成连锁效应,从而破坏AI技术的整体质量和可信度。
防止幻觉引发的连锁效应
企业必须在内容创建和数据整理方面保持强有力的人工监督,以防止AI幻觉的传播。这包括对AI生成的输出结果进行定期审计,并实施验证协议,确保信息在使用或发布前经过核实。
持续监控
对AI系统进行持续评估至关重要。通过持续监控性能,企业可以识别错误或不准确的模式,这可能表明AI模型或其训练数据存在潜在问题。这种主动的方法可以及时干预,在问题升级之前予以纠正。
反馈循环
建立反馈机制使AI系统能够在人类指导下从错误中学习。当发现错误时,应将其反馈给系统,以调整算法并提升未来性能。这种迭代过程有助于逐步完善AI模型,降低重复出现幻觉的可能性。
建立可信
的使用范围
为了建立对AI的信任,企业必须明确界定其使用范围。这包括确定AI已证明可靠且其输出可验证的具体应用场景。例如,AI可能在数据录入自动化或初步数据分析方面值得信赖,但在战略决策或客户沟通等领域仍需要人工监督。
通过设定这些参数,企业可以确保AI在明确的范围内发挥工具的作用。这种方法降低了出现意外结果的风险,有助于利益相关者更放心地让AI在工作流程中发挥作用。
有效的风险管理策略对于监控AI的产出和及早发现错误至关重要。这包括实施制衡措施,如"人机协同"系统,即在执行或传播AI生成的结果之前,由人类专家对其进行审查和验证。
企业还应限制AI的自主性,尤其是在错误会造成严重后果的关键流程中。通过控制授予AI系统的独立程度,企业可以防止它们做出可能导致不良后果的单方面决策。
提高
模型的透明度
透明度对于建立信任至关重要,它能让用户看到AI输出背后的逻辑。当用户了解AI系统如何得出结论时,他们更可能信任和接受其建议。此外,透明度还能提供监管机构所需的文档和解释,从而促进监管合规,特别是在有严格治理标准的行业。
确保透明度的一种方法是使用可解释AI (XAI),借助这种方法和技术可以让AI系统的输出更容易被人类理解。XAI旨在通过让人类理解决策过程,从而揭示AI模型的内部运作机制。
企业可以采用局部可解释模型无关解释 (LIME) 和夏普利加性解释 (SHAP) 两种方法。LIME通过用更简单的可解释模型对复杂模型进行局部近似,帮助解读各个预测,使利益相关者能够看到哪些特征对特定决策的影响最大。同样,SHAP使用博弈论为每个特征分配一个重要性值,以提供模型输出全局和局部解释。
通过整合这些技术,企业可以提高AI决策流程的透明度,促进更好的监督。
增强人类能力,而不是取代人类
企业不应将AI视为人类员工的替代品,而应采取增强策略,将AI作为增强人类能力的工具。这种观点将AI定位为处理常规或数据密集型任务的协作伙伴,使人类能够专注于需要创造力、批判性思维和情商的领域。
在许多情况下,AI与人类员工可以有效合作。在医疗保健领域,AI算法可突出医疗图像中的异常来协助放射科医生,但最终诊断仍由医生做出。在客户服务方面,AI聊天机器人处理常见的咨询,而复杂的问题则会上报给人工座席。这种协同合作将AI的效率与人类专业人员的细致理解相结合,从而带来更好的结果。这种方法还能提高员工对AI技术的接受度,因为它减轻了人们对失业的担忧,并强调了人类专业知识的价值。
整合企业实践步骤
企业需要制定明确的AI治理政策,包括道德准则、问责机制和风险管理流程。这些政策应明确规定可接受的使用场景,界定各方职责,并建立处理错误或意外结果的操作流程。
培训与教育
投资员工培训计划对于让员工掌握与AI有效协作所需的技能至关重要。这包括技术培训和教育,内容涉及AI的局限性、道德考量以及人类与AI合作的最佳实践。
利益相关者的参与
让所有利益相关者参与AI的采用过程,有助于培养透明和包容的文化。通过让员工、客户、监管机构和合作伙伴参与关于AI计划的讨论,企业可以消除顾虑、收集宝贵的反馈意见,并在采用AI的过程中建立更广泛的信任。
弥合
AI
采用中的信任鸿沟
尽管AI具有变革潜力,但由于模型具有"黑匣子"性质且存在幻觉风险,企业仍持谨慎态度,这凸显了创新与可靠性需求之间的矛盾。
建立对AI的信任势在必行;企业可以通过明确界定AI的使用范围、提高透明度、专注于增强而非取代人类员工来降低风险,并增强利益相关者的信心。
我们鼓励企业采取积极措施,负责任地采用AI,即制定全面的政策、投资教育、并让利益相关者参与进来,以充分释放AI的潜力,同时保持其完整性和信任,这是长期成功的关键。
Figure (6)
英特尔第五代至强
®
处理器产品
Figure (7)
提升
AI
、数据库、网络与存
储的性能和效率
mouser.cn/intel-5th-gen-xeon-processors
Figure (8)
关于作者 (3)
关于作者
Robert Dempsey在设计、构建和扩展本地与云端的大规模机器学习解决方案方面拥有超过10年的经验,专注于将AI战略转化为有影响力的成果。他成功领导多家大型公司实施了强大的AI架构,目前担任ECS司法与国土安全解决方案部门的AI项目经理,领导四个数据团队。他以数据驱动的问题解决方法而闻名,通过将技术和战略技能相结合,提升复杂ML项目的效率、可扩展性和创新性。
1
https://www.oreilly.com/radar/ai-adoption-in-the-enterprise-2022
2
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
3
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
4
https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
重塑AI数据中心 (1)
重塑AI数据中心
作者:Brandon Lewis,贸泽电子专稿
在谈及关键基础设施时,人们通常会想到电网、水处理系统、道路以及各类公用事业。但很少有人想到数据中心。
数据中心早已成为各种数字服务的关键基础设施。然而,人工智能 (AI) 的兴起将这些计算枢纽的重要性提升到了一个全新的高度,致使数据中心的能耗水平大幅攀升。
要满足不断增长的电力需求,就必须将提高效率、开发可再生能源和先进的电力解决方案结合起来。本文阐述了数据中心电力消耗的最新趋势、AI对能源需求的影响、满足这一需求可用的解决方案与先进技术,以及AI电力消耗及可持续实践所引发的环境问题。
AI
激增的能源需求
目前,数据中心在全球电力消耗中所占比例已相当可观,2022年其用电量已达到460太瓦时 (TWh)。 随着数字服务和AI需求的增长,预计
1
这一需求还将增加。
例如,高盛预计到2030年,受AI工作负载推动,数据中心的用电量将激增160%。这将给电网带来巨大压力,高盛预测欧洲将需要投资1万亿美元以满足应AI的电网需求。
2
AI训练和推理工作负载对计算资源有着极高的要求,这已不是什么秘密。即使是早期的AI模型,也已经出现了数据中心能耗明显激增的情况。生成式AI和大型语言模型 (LLM) 对能源的需求极为庞大,这也给数据中心的可持续发展带来了挑战。但这种能耗具体表现如何? 以下是一些值得考虑的要点:
3
•
AI系统完成一项任务所需的能源是传统软件的33倍。
• (1)
训练GPT-3消耗了约1,300MWh的电力,而GPT-4的能耗超过65,000MWh。
• (2)
支持AI发展所需的计算能力每100天就会翻一番。
激增的电力需求给现有基础设施的扩展带来了巨大挑战。数据中心在扩张过程中面临电力设备短缺、熟练技工和技术人员不足等问题,难以实现快速增长。这些制约因素最终可能迫使二级市场和新兴市场加大能源生产力度,以满足数据中心扩张的需求。
4
应对数据中心电力需求增长的
解决方案
显然,数据中心和更广泛的市场需要快速的解决方案,以应对激增的能源需求。然而,在同时考虑能源生产增长速度与区域差异的情况下,实现这一目标绝非易事。
到目前为止,我们已经看到对可再生能源和替代能源的投资、能效和冷却技术的创新,以及需求响应计划和AI驱动的能源优化技术的兴起。
:可再生和替代能源
对于数据中心来说,可再生能源并不是一个新概念。然而,随着能源消耗速度的加快,可再生能源已成为满足电力需求的理想解决方案。
许多数据中心已转向太阳能、风能和地热解决方案,以抵消对电网的依赖并减少碳排放。谷歌已经实现了总用电量与购买的可再生能源100%匹配,并希望到2030年实现全天候无碳能源 (CFE)。 其技术竞争对手亚马逊也提出了类似的目标,计划实现其运营和AWS数据中心100%使用可再生能源,并在2040年前实现净零碳排放目标。 与此同时,作为全球最大的太阳能数据中心之一,迪拜的摩罗中心 (Moro Hub) 每年通过太阳能电池板抵消的二氧化碳排放量已超过13,800吨。
5
6
7
此外,人们还在推动开发替代能源,以满足短期和长期日益增长的能源需求。一些大型科技公司已经开始投资氢能和核反应堆等替代能源。例如,微软最近宣布在其位于爱尔兰的一个数据中心启动零排放氢能试点项目, 还同意为宾夕法尼亚州退役的三里岛核电站进行改造升级。
8
9
AI的能源需求甚至能推动核能行业实现升级。多家科技公司正与小型模块化反应堆 (SMR) 领域的先驱企业探索合作机会。与传统核电站相比,这些紧凑型核设施的建造速度更快、成本更低,同时还能提供稳定的零碳电力。事实证明,小型模块化反应堆不仅能改变数据中心的能源格局,更可能重塑整个电力电网。
氢燃料电池代表了另一个前景广阔的领域。这些系统可以提供主电源和备用电源,同时仅产生水作为副产品。尽管目前氢能发电在成本上尚未与传统能源来源竞争,但对氢气生产的投资可能使这项技术成为寻求零排放替代方案的数据中心的可行选择。
解决方案 (1)
解决方案
2
:能源效率与冷却技术创新
虽然能源消耗的增加可能不可避免,但数据中心仍有办法限制其对能源的需求。其中包括投资于能源效率解决方案,如先进制冷系统、高能效服务器和能源管理软件。
制冷能耗占数据中心能耗的40% ,改进冷却技术可以带来显著效果。例如,液冷技术就具有巨大潜力:一项研究发现,与传统的空气冷却相比,完全采用液冷技术可将设施能耗降低18.1%,
10
将数据中心总能耗降低10.2% 。
11
其中最具前景的方法是两相液冷技术。该技术利用液体在气化过程中吸收热量来冷却数据中心组件, 以极低的能耗实现了高效管理高热负载。
美国能源部正在资助几个创新冷却项目,包括:
12
• (1)
•
英伟达的模块化数据中心设计,该设计结合了直接芯片冷却、泵送两相冷却和单相浸入式冷却技术
英特尔正在开发使用新型混合制冷剂的两相冷却系统
要普及两相冷却技术,必须解决一些问题。这种技术需要专门的放电液,但部分候选制冷剂会引起环境问题。 此外,实施这些系统可能需要对现有基础设施进行重大改造。
13
硬件的进步也起到了辅助作用。行业巨头英伟达公司最新推出的Blackwell图形处理器 (GPU) 承诺将性能提高30倍,能耗降低25倍。
14
最后,数据中心基础设施管理 (DCIM) 软件对优化运营至关重要。它可以实时监控电力使用和环境状况,帮助操作员快速识别和解决效率低下的问题。例如,DCIM软件可以精确定位 "幽灵服务器",这些服务器即使在没有负载的情况下也在耗电。这类工具还能帮助规划更高效的数据中心,预测服务器负载,并简化冷热通道隔离等技术的使用。
解决方案 (2)
解决方案
3
:需求响应计划、
AI
和自动
化技术助力电力优化
除了提高能效,数据中心也在积极地利用AI和需求响应计划来管理能源消耗。
需求响应计划是一种基于政策的方法,旨在确保能源供应的可靠性。这些计划通过调整用电时间和地点来平衡电力需求——尤其是在用电高峰期——并确保电网稳定性。例如,利用碳感知模型的数据中心可以将工作负载转移到碳强度较低的地区。需求响应计划可将低排放能源的能源成本降低高达34%。例如,谷歌目前其电力消耗中64%来自无碳能源。
15
当然,AI已广泛应用于电力优化。基于AI的温度调节是应对数据中心能耗挑战的一种解决方案。这些系统使用AI、传感器和算法来实时监控温度并调整制冷。AI旨在根据设备使用情况、天气条件等因素预测温度波动。此方法通过避免过度制冷节省能源,并减少制冷设备磨损。
环境问题与可持续
实践
尽管增加数据中心的能源供应对AI的未来至关重要,但这不可避免地会对环境产生影响。
AI的能源消耗已广受关注。制造先进GPU、开垦荒地建造数据中心、为AI模型训练和推理提供动力,以及发电所消耗的自然资源和产生的排放物,都会对环境造成影响。这些影响尚未考虑排放物对当地社区造成的社会影响。
这些环境问题为发展可持续AI实践铺平了道路,包括:
• (2)
碳抵消计划:允许企业从减少、防止或隔离碳排放的项目中购买碳信用额度的专项计划
环保型AI模型设计:精简高效的模型,只需较少的计算能力即可完成训练和部署
高能效硬件开发:开发定制硬件、节能服务器机架以及英伟达Blackwell系列等AI优化GPU
尽管这些进展意义重大,但若缺乏正确的政策、法规和行业标准来引导和塑造可持续AI实践,它们的意义就微乎其微了。
AI虽然还处于早期发展阶段,但各级立法者和全球政府都在讨论这个问题。新加坡宣布了一项数据中心可持续发展标准,欧盟委员会则通过了一项数据中心可持续发展评级计划。 与此同时,美国政府正在探索如何管理国家AI能耗的影响。
16
17
美国、欧洲和其他地区还推出了多项政府计划和税收优惠,旨在激励可再生能源开发、碳排放抵消及能源效率投资。
平衡电源供应与技术进步:
驱
动的数据中心未来
数据中心对电力的需求随着AI的发展而不断增加,凸显了对创新型电力采购和管理解决方案的需求。目前的电网状况无法满足AI对电力需求的指数级增长。
要实现这一目标,数据中心需要结合可再生能源生产、先进冷却技术和复杂的电力优化方案。这些方向均需大量投资和工程技术突破,且成功与否尚不确定。
AI的未来需要联邦、州和地方政府、科技公司及公用事业公司的通力合作,以确保未来能源供应的可持续性。
Figure (9)
PwrBlade ULTRA HD+ BTB 连接器
®
提供每触点高达
100A
电流,采用薄型封装
并确保气流通畅
Figure (10)
Figure (11)
mouser.cn/amphenol-pwrblade-btb-connectors
Figure (12)
关于作者 (4)
关于作者
Brandon是一位有超过十年经验的深度技术记者、讲述者和技术作家,从软件初创公司到半导体巨头都是他曾经报道过的对象。他关注的领域包括嵌入式处理器、硬件、软件和工具,因为它们都与电子系统集成、物联网/工业4.0部署和边缘人工智能等用例有关。 他还是一名出色的播客、视频博主、活动主持人和会议发言人,并曾在多家电子工程贸易出版物中担任主编和技术编辑。
Brandon在不出席面向B2B技术受众的大型活动时,会通过电视指导菲尼克斯地区的体育特许经营公司。
1
https://www.datacenterdynamics.com/en/news/global-data-center-electricity-use-to-double-by-2026-report
2
https://www.goldmansachs.com/insights/articles/AI-poised-to-drive-160-increase-in-power-demand
3
https://www.weforum.org/agenda/2024/07/generative-ai-energy-emissions
4
https://www.mckinsey.com/industries/private-capital/our-insights/how-data-centers-and-the-energy-sector-can-sate-ais-hunger-for-power
5
https://www.datacenterknowledge.com/energy-power-supply/data-center-power-fueling-the-digital-revolution
6
https://sustainability.aboutamazon.com/climate-solutions
7
8
https://news.microsoft.com/source/emea/2024/09/microsoft-announces-pioneering-green-hydrogen-pilot-project-with-esb
9
https://www.reuters.com/markets/deals/constellation-inks-power-supply-deal-with-microsoft-2024-09-20
10
https://www.energy.gov/articles/doe-announces-40-million-more-efficient-cooling-data-centers
11
https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling
12
https://www.datacenterdynamics.com/en/analysis/here-are-the-15-doe-funded-projects-hoping-to-usher-in-the-next-generation-of-data-center-cooling
13
https://www.datacenterfrontier.com/sponsored/article/33035570/understanding-pfas-concerns-for-two-phase-cooling-of-data-centers
14
https://venturebeat.com/ai/nvidia-unveils-next-gen-blackwell-gpus-with-25x-lower-costs-and-energy-consumption
15
https://iea.blob.core.windows.net/assets/6b2fd954-2017-408e-bf08-952fdd62118a/Electricity2024-Analysisandforecastto2026.pdf
16
https://time.com/6987773/ai-data-centers-energy-usage-climate-change
17
https://energycommerce.house.gov/events/energy-climate-and-grid-security-subcommittee-hearing-powering-ai-examining-america-s-energy-and-technology-future
通过这份概述,您将了解推动AI发展的各种学习模型、算法和应用。 从监督学习和无监督学习等基础训练技术,到强化学习和生成式模型等先进方法,这份地图指出了指导AI发展的关键机器学习方法。
• 监督学习:使用结构化、人工标注的数据集,根据预定义的已知结果对模型进行训练
• 分类:将测试数据分配到特定类别中。应用:垃圾邮件检测、物体识别
• 回归:发掘因变量与自变量之间的关系 。应用:预测性建模
• 子集:半监督学习
• 无监督学习:使用未标注数据来学习模式,没有明确或已知的结果
• 聚类:根据相似性或差异性对未标注数据进行分组。应用: 欺诈检测、市场细分
• 关联:发现数据点之间的关系 。应用:推荐引擎、客户分析
• 子集:半监督学习、 自监督学习
• 半监督学习:同时使用标注数据和未标注数据,将标注数据中获得的见解应用到未标注数据中
• 一致性控制:通过在输入变量轻微变化时生成相似的输出,提升模型对新数据的鲁棒性 。应用:计算机视觉、医学影像
• 自监督学习:无监督学习的一个子集,这种算法自行对数据进行标注,并利用这些标注数据进行进一步训练
• 架构:将文本转换为查找表中的标记 (token),以计算特定单词的出现概率 。应用:大语言模型
• 强化学习:通过重复学习并在实现预期结果时获得奖励来进行训练的模型
• 基于策略:为模型在追求奖励时可采取的行动设定边界 。应用:机器人、游戏
• 基于价值:学习每种状态的价值,并优化行动以最大化价值 。应用:路线规划、能源使用优化
21 |
重新审视AI的道德困境 (1)
重新审视AI的道德困境
作者: (2)
作者:
Kyle Dent
,贸泽电子专稿
我们在2021年推出的一期《Methods》杂志以人工智能(AI)为主题,探讨了社会应如何权衡AI的巨大潜力和危害风险。当时AI还是一项很新的技术,我们建议从大局出发来考量它的影响,并且要深刻地认识到新工具的局限性。此后,基于难以想象的海量数据集训练的生成式AI横空出世;它完全主导了AI技术的风口浪尖,驱使着AI爱好者们一头扎进这个领域,探索其能够改变世界的应用场景。现在,大家都在争先恐后地把这项新兴技术应用到生活的方方面面,这已经与我们想象中的审慎态度相去甚远。
AI的这些新发展加剧了我们的道德悖论:如何才能够利用它的巨大潜力造福人类,同时尽可能降低它带来的危害?AI的快速发展往往将创新而非深思熟虑放在首位,这有可能给现实世界带来不容忽视的问题。因此,采取审慎且道德的方法就显得尤为重要。
AI
部署的道德风险
诸如OpenAI、谷歌和Anthropic等先进AI公司已经取得了重大成就。大语言模型(LLM)和其他生成式模型显然已经超越了典型的语音助手。如果你给它们一个提示,告诉它们你想要什么,它们通常都能满足你的要求。你可以提出问题、生成论文和文章、创作新的艺术作品,甚至解决复杂的数学和逻辑问题。尽管生成式AI前景广阔,但它在现实世界中的仓促上马并非没有问题。
在没有充分监督的情况下使用生成式AI会引发严重的道德问题。例如,OpenAI宣称其语音识别转录工具Whisper具有"接近人类水平的稳健性和准确性",但事实上,虽然Whisper提供了令人印象深刻的语音转文本功能,但它也会凭空编造出从未说过的文本。这种被称为"AI幻觉"的现象可能出现在与LLM的任何交互中。目前,我们还不清楚这个问题的严重程度,但康奈尔大学在2023年进行的一项研究发现,在使用Whisper API处理13140个音频样本所得的转录结果中,有1.4%的内容包含幻觉,其中又有38%提到了暴力
1
2
3
新闻行业的现状也给我们敲响了警钟。为了提高工作效率,许多记者和编辑正在大量采用这项技术。我们并不清楚这么做究竟能不能节省时间,毕竟可靠的新闻机构还要额外花时间进行事实核查。但是,一些不那么可靠的机构已经完全采用AI来生成报道,并且出现过报道发出后又撤下的情况,因为其中包含了捏造的信息。其道德影响显而易见:如果没有严格的监督,这些工具可能会削弱公众对重要机构的信任。
4
与此同时,传统的AI模型仍然被用于对人类生活有重大影响的决策,包括工作绩效、招聘、贷款、刑事司法等等。本特利大学和盖洛普公司2024年的一项调查发现,56%的受访美国人认为AI工具本质上是中立的。然而,AI模型是人类开发的,他们必然要决定如何训练这些模型。他们选择用于训练模型的数据,并做出影响结果的权衡。AI开发中使用的各种标准性能指标是相互矛盾的,这就导致开发人员倾向于将道德选择嵌入到技术中,而不是从道德角度考虑他们的决策。
5
公共机构尤其需要考虑所采用的技术带来的影响。如果警察部门决定采用一套面部识别系统,这套系统声称可以预测犯罪最有可能发生的地点,那么在实际部署之前,需要经过哪些流程?警员在使用这项技术之前,需要接受哪些培训?我们应该向代表我们开展工作的组织提出这些问题。
然而,我们对AI的狂热仍在持续。
《连线》(WIRED)杂志和灯塔报告(Lighthouse Reports)组织对荷兰鹿特丹使用算法机器学习系统检测福利欺诈的情况进行了研究。他们分析了这套系统给出的判断,结果发现:在识别系统中的实际欺诈行为方面,这些模型并不比随机猜测更好,而且某些人群还可能由于算法中存在的偏见,而更容易受到歧视。虽然鹿特丹已经停用了这套福利欺诈检测系统,但类似的系统仍然在世界各地被不同的政府机构使用,其使用方式在很大程度上不为公众所知。
6
7
北卡罗来纳州立大学家庭与社区参与中心也发现,训练数据中的偏见加上开发人员的无意识偏见,可能会导致AI驱动的决策延续这些歧视,并可能通过强化系统性不平等而伤害边缘化群体。
8
不公平的风险评估、侵犯数据隐私以及缺乏人工监督等症结都会引发严重的道德问题。当然,AI完全可以用来推进福祉,例如通过简化行政任务、减少社会工作者的职业倦怠来改善儿童福利。这之中的挑战在于确保AI以合乎道德的方式来实施,并采取严格的监督和保障措施来防止偏见并保护弱势群体。像北卡罗来纳州立大学"将AI融入社会道德"(EASE)中心这样的倡议组织,在解决这些问题以及推动AI以负责任的方式融入到儿童福利等社会机构方面发挥着至关重要的作用。
道德
AI
的前景
如果以负责任的方式进行开发和部署,AI将有望解决我们面临的一些社会挑战。在医疗保健领域,AI通过结合传统筛查方法与先进算法,实现了更快、更准确的诊断,从而彻底改变了越南的结核病检测工作。结核病在许多偏远地区都是难以治疗的病症,尤其是在缺乏昂贵的医疗设备和专业知识的地区。配备先进技术的智能手机,在经过数百万个短音频的训练后,便可用于在早期检测出这种全球性传染病。这项技术只需要录下人们的咳嗽声就可以进行检测。
9
10
同样,AI驱动的药物发现工具正在加快救命药物的鉴定,有望改变公共卫生研究的过程。开发抗生素的一种方法涉及极其复杂的细菌DNA测序。类似于ChatGPT等智能助理中使用的基础模型正被用于建立潜在有效药物库,以对抗愈演愈烈的细菌耐药性。
11
12
在教育领域,AI驱动的个性化学习平台正通过因材施教的方法,帮助缩小不同学生在理解方面的差距。当与人类监督相结合时,这些工具展现出了AI在促进公平和进步方面的道德前景。其他一些小众任务,例如保护正在消失的土著语言,也能受益于AI的新发展。这些社会问题通常得不到足够的关注度或资金来推动解决。但是,有了AI工具,科学家和活动家就可以解决与他们息息相关的问题,即使更广泛的世界认为只有"更大的"问题需要处理。
应对
双重性的道德要求
AI本质上就是一把双刃剑——它既能放大人类的聪明才智,又能加剧系统性不平等。开发人员、决策者和整个社会都有责任应对这种矛盾。道德原则必需贯穿AI开发和部署的每个阶段,以确保其使用符合更广泛的社会价值观。
在使用任何可能以这种方式影生活的
技术之前,至少应遵循以下道德原则:
•
透明度和问责制:AI系统,尤其是部署在高风险环境中的系统,必须是可审计且可解释的。这些系统做出的决策应该能够被非专业人士所解读,从而促进信任和问责制。
• (1)
监管和监督:政策制定者必须制定明确的道德准则,规范AI的使用,包括强制要求部署后进行准确性评估、提供系统故障时的追索途径,以及应对AI发展对环境的影响。供应商应对其系统造成的损害负责,这将确保道德考量成为AI设计不可或缺的一部分。
• (2)
教育和扫盲:全社会都应当了解AI的局限性和潜在危害。将AI扫盲纳入学校课程和专业培训计划,将使个人有能力批判性地评估AI技术,并且负责任地使用它们。
• (3)
公正性:AI开发人员和用户必须积极主动地解决训练数据中固有的偏见。通过将公正性融入到系统设计中,并严格测试不同的影响,开发人员可以使AI成为促进公平而非分裂的力量。
围绕负责任的AI概念,一个新兴行业正在蓬勃发展。学术界和咨询公司正在开发一套实践方法,帮助企业评估固有风险。监督机制就是这些实践方法之一,旨在解决AI的偏见、隐私侵犯和滥用问题。
透明的决策和可解释性是AI决策中应纳入的关键价值。算法审计正被用于调查决策系统的结果。负责任的AI研究人员借鉴了社会科学的经验,运用实验方法来衡量歧视和其他负面影响。
在这些研究中,另一个重要考虑因素是AI的错误会对哪些人造成影响。没有一个模型是绝对准确的,但模型预测中的错误是否会对某些人群造成更大的伤害?公平和权衡(即对社会的益处与对不同个体的不同结果之间的平衡)仍然是亟待解决的复杂挑战。AI领域目前还没有行业标准,但学术界和地方政府正开始朝着这个方向迈进。
结语
AI的悖论源于多种因素,包括其变革潜力与固有风险并存的复杂现实。为了负责任地驾驭这个时代,我们必须将AI的开发和部署建立在道德原则之上。只有通过透明度、监管、教育等手段以及对公正的追求,我们才能确保AI成为造福社会的工具,而不是制造伤害的驱动因素。在我们前进的道路上,最值得关注的问题不在于AI能否取得非凡的成就,而在于它能否在道德和公平的基础上实现这些成就。这个问题的答案取决于我们是否愿意把人性放在首位,而不是急于求成。
Figure (13)
STM32N6 高性能微控制器
采用专为节能型边缘
AI
应用而设计的
Neural-ART Accelerator
™
增强
功能
Figure (14)
mouser.cn/stm-stm32n6-mcus
1 (1)
1
openai.com/index/whisper
2
apnews.com/article/ai-artificial-intelligence-health-business-90020cdf5fa16c79ca2e5b6c4c9bbb14
3
arxiv.org/abs/2402.08021v2
4
theverge.com/2023/1/25/23571082/cnet-ai-written-stories-errors-corrections-red-ventures
5
news.gallup.com/poll/648953/americans-express-real-concerns-artificial-intelligence.aspx
6
wired.com/story/welfare-state-algorithms
7
oecd.org/en/publications/governing-with-artificial-intelligence_26324bc2-en.html
8
cface.chass.ncsu.edu/news/2024/12/02/how-the-use-of-ai-impacts-marginalized-populations-in-child-welfare
9
pmc.ncbi.nlm.nih.gov/articles/PMC11216706
(1)
10
dhinsights.org/news/cough-analysis-tool-screens-for-tb-via-smartphone
11
pmc.ncbi.nlm.nih.gov/articles/PMC7577280
12
nature.com/articles/s42256-024-00809-7
Figure (15)
Figure (16)
Mirror Mezz Pro 连接器
提供
112Gbps
高速传输和
坚固的保护,适用于服务器、
网络和存储系统
Figure (17)
关于作者 (5)
关于作者
Kyle Dent是一位AI研究员和经理,致力于科技与人类行为之间的交叉研究。他一直在撰写有关科技和社会的文章,并担任帕洛阿尔托研究中心(前身为施乐帕克研究中心)AI伦理委员会的联合主席。
mouser.cn/molex-mirror-mezz-pro-connectors
克服嵌入式ML面临的
制约因素
优化技术和最佳实践
作者: (3)
作者:
Michael Parks
,
PE
,贸泽电子专稿
嵌入式系统正越来越多地采用机器学习(ML)技术来实现智能和自主功能。然而,由于其固有的资源限制,在这些设备上实施ML面临着独特的挑战。与台式机或云服务器等通用系统不同,嵌入式系统通常由电池供电,其内存和处理能力有限,并且要与基于传感器的数据(例如随时间变化的模拟信号)进行交互。这些差异带来了多种问题,如计算资源有限、数据集规模小且噪声大,以及实时性要求严格等,这些都需要由创新的解决方案来克服。本文将探讨一系列优化技术和模型设计策略,这些技术和策略能够在嵌入式设备上实现有效的ML,确保这些系统保持高效、可靠
了解挑战
作为从事嵌入式系统工作的工程师或开发人员,您的角色对于克服ML技术实施过程中的独特挑战至关重要。与主要使用文本提示从个人计算机访问的生成式人工智能(AI)应用不同,边缘设备处理的是传感器输出,也就是电压或电流随时间变化的模拟信号。除了这种训练和推理数据的差异,计算资源和数据限制也是基于边缘的ML系统在使用中所面临的关键挑战。
有限的计算资源
内存、处理能力和电池寿命通常是有限的,因此需要轻量级的模型和高效的计算技术。微控制器的规格通常以兆赫兹(MHz)和兆字节(MB)为单位,而台式机和服务器则以千兆赫兹(GHz)和千兆字节(GB)为单位。
数据限制
数据集小、数据噪声大、获取不同数据源的途径有限,这些都是可以预见的。这些因素会增加过拟合的风险,需要采用稳健的方法来提高泛化能力。过拟合会导致泛化效果不佳,致使系统在真实世界条件下表现不佳(如出现预测错误)。过拟合还会消耗更多内存和计算周期,可能导致能耗过高。
许多嵌入式系统需要低延迟推理,这就要求高效的模型能够在严格的时间限制内提供预测。如果不能满足这些要求,最终用户就可能会觉得系统响应迟缓。人因学研究表明,100ms到300ms的时间对于快速响应是可以接受的,因而设计出能够满足这些实际需求的模型是非常重要的。
模型优化技术
从内存的角度来看,要在模型的大小和复杂性之间取得适当的平衡,同时又要确保推理过程中的准确预测,是一项具有挑战性的工作。模型太小会影响其预测能力,但如果用涵盖几乎所有可能输入的方式来训练模型,又会导致模型太大,无法放进微控制器有限的内存空间。实现这种平衡至关重要,可以使用多种技术来实现。
权重共享
权重共享技术可以减少模型中的参数数量,使模型更小、更高效。它不会为网络中的每个连接分配唯一的权重,而是让相似的神经元共享相同的权重。例如,在图像处理任务中,权重共享可确保在整个图像中检测相同的特征(如边缘或纹理等可测量变量),而不是为每个区域学习单独的权重。此举减少了模型的参数数量,并利用了图像中某各部分的特征往往与其他部分相关这一事实,提高了泛化能力。
模型剪枝
模型剪枝包括删除神经网络中不必要的神经元或神经层,以减少计算和内存开销。剪枝大致分为结构化剪枝和非结构化剪枝。
结构化剪枝会移除整个神经元、通道或层,同时保留密集矩阵,使其与标准硬件更加兼容。常见的结构化方法包括通道剪枝(移除卷积层中不太重要的通道)、层剪枝(移除冗余层,尤其是在较深的网络中)和分组剪枝
(针对特定的神经元组或滤波器组)。
非结构化剪枝会删除重要性较低的单个权重(连接),例如权重接近于零的连接(图1)。这种剪枝会导致矩阵稀疏,需要专门的库或硬件才能实现高效计算,因为不规则的稀疏性可能会导致通用硬件效率低下。
(1)
量化
量化将高精度权重(如32位)转换为较低精度(如8位甚至二进制精度),可以节省内存,并利用硬件加速器加快计算速度。其中一种方法是后训练量化(PTQ),这种方法无需重新训练即可量化预训练的浮点模型。后训练方法的一种变体是动态范围量化,它将权重量化为较低精度,但推理过程中的激活值仍为浮点数。另一种变体是全整数量化,即权重和激活值都量化为整数。
另一种方法是量化感知训练(QAT),
即在训练过程中加入量化。此举可以在训练过程中模拟低精度计算,从而尽可能降低对精度的影响。
缓解过拟合
过拟合是指ML模型在训练数据上表现优异,但在它没见过的数据上却表现得很差。缓解方法包括数据增强,即通过生成现有样本的转换版本(如旋转图像)来扩充数据集,从而提高泛化效果。对于嵌入式系统获取的传感器数据(通常是时间序列数据),可通过窗口切片、抖动和时间扭曲等技术,在序列数据中引入变化,从而有效缓解过拟合。
其他技术,如L1/L2正则化,则通过惩罚大权重来减少过拟合。L1正则化将权重绝对值相加,通过将不太重要的权重设置为零来提高稀疏性,这也可以作为一种特征选择。L2正则化将权重平方和相加,通过将影响分散到所有特征上来抑制过大的权重,并提高模型的平滑度。剔除(dropout)技术会在训练过程中随机移除神经元,防止过度依赖特定的网络通路。
低秩分解
低秩分解通过将大权重矩阵分解成更小、更简单的矩阵,从而降低ML模型的计算和内存需求(图2)。在典型的神经网络中,权重矩阵可能非常庞大,会消耗大量内存和处理能力。低秩分解将这些大矩阵近似分解为两个或多个较小矩阵的乘积,从而减少需要存储和处理的参数。这种分解方法显著减少了前向和后向传递所需的运算次数,从而加快了推理和训练速度。
高效损失函数
损失函数是一个数学公式,用于衡量模型的预测值与实际值之间的偏差。它可以指导训练过程以提高性能。此类函数包括二元交叉熵、均方误差(MSE)和铰链损失(Hinge Loss)。
二元交叉熵
这种损失函数通常用于二元分类任务,其目标是将数据分为两类
(如"是"或"否"、"猫"或"狗")。
它对低复杂度模型特别有效,因为它能直接衡量基于概率的预测的准确性,确保模型能够准确区分两个类别。
均方误差
MSE通常应用于以预测连续值(如房价或温度)为目标的回归任务,它计算预测值与实际值之间的平均方差。这种方法计算量小、操作简单,在资源有限的环境中非常实用。
铰链损失
这种损失函数用于支持向量机(SVM),
这是一种专为分类任务设计的模型。铰链损失会在决策边界周围产生一个余量,确保预测结果有把握地落在边界的一侧。它对较小的数据集和较简单的嵌入式系统特别有效,因为在这些系统中,计算效率和稳健分类是优先考虑的因素。
优化嵌入式系统
ML
模型的
其他技术
除了前面提到的方法外,以下技术还可以帮助嵌入式设计人员进一步优化ML模型。
特征工程与选择
有效地设计和选择特征,可以显著简化模型,同时降低计算和内存需求。模型可以通过关注最相关的信息,以更少的资源实现更好的性能。
特征重要性分析
这一过程包括确定哪些特征会对模型的预测产生显著影响。通过优先考虑这些关键特征、摒弃不相关的特征,模型就会变得更加高效和准确。例如,在温度监测系统中,关注天气趋势可能比关注时间戳等不太相关的数据更重要。
降维
主成分分析(PCA)和t分布随机邻域嵌入(t-SNE)等技术可通过汇总或压缩数据来减少输入特征的数量,同时保留基本特征。此举能够尽可能降低内存和计算需求,使模型更快、更轻量,从而更适合嵌入式系统。
超参数调优
调整超参数(控制模型学习方式的设置)会显著影响模型的效率和准确性,尤其是在资源有限的嵌入式设备上。
随机搜索和网格搜索
随机搜索是一种超参数调优技术,在指定范围内随机抽取超参数组合。与穷举所有可能组合进行求值的网格搜索不同,随机搜索可以更高效地探索参数空间,通常只需较少的求值次数就能找到最优或接近最优的设置
(图3)。这样的高效率使其在计算资源和时间有限的嵌入式系统中尤为有用,可加快调优速度并减少开销。
贝叶斯优化
贝叶斯优化是一种更复杂的方法,它通过迭代改进来搜索最优的超参数。这种策略利用先前的求值结果来指导下一组实验,可以减少对计算成本高昂的穷举搜索的需求,因此特别适用于嵌入式系统。
优化算法
高效的优化算法对于在训练过程中加速模型收敛和减少资源消耗至关重要。
梯度下降
梯度下降优化算法的各种变体,如随机梯度下降算法(SGD)、Adam算法和RMSprop算法,在收敛速度、稳定性和内存要求方面各有优劣。例如,Adam算法因其自适应学习率而得到广泛应用,这使其在嵌入式ML中既稳健又高效。
自适应优化
AdaGrad和Adam等算法会在训练过程中动态调整学习率。这种自适应性有助于模型以更少的迭代次数更快地收敛,从而节省计算资源——这正是嵌入式系统必须考虑的因素。
模型训练
对于嵌入式系统而言,从头开始训练ML模型不仅计算成本高、耗时长,而且往往不切实际。利用预训练模型和先进的训练策略可以显著减少工作量。
微调
微调涉及调整预训练模型的特定层,而不是从头开始构建模型。这种方法既能为特定任务定制模型,又能节省资源。
迁移学习
这种技术可以利用为类似任务开发的预训练模型,能够显著降低训练的计算成本。例如,为物体识别而训练的模型可针对嵌入式设备上的特定物体进行调整,从而节省时间和精力。
联邦学习
将模型在多个设备上进行训练,无需将原始数据传送到中央服务器。这种方法降低了网络需求,保护了用户隐私,并实现了分布式训练,因此非常适合边缘和嵌入式系统。
硬件感知模型设计
在设计模型时考虑到硬件规格,从而尽可能提高效率和性能。
•
神经架构搜索(NAS):NAS技术可自动设计针对特定硬件进行优化的模型,同时兼顾精度和计算要求。
• (1)
硬件加速:利用图形处理器(GPU)、张量处理单元(TPU)或神经处理单元(NPU)等专用硬件可以加速训练和推理,这对提高嵌入式设备的功耗和时间效率至关重要。
硬件定制框架:利用为特定硬件平台量身定制的框架,如TensorFlow Lite、ONNX Runtime或Edge Impulse,可以优化受支持嵌入式硬件的推理性能。
节能:使用GPU、NPU或数字信号处理器(DSP)等低精度计算和硬件加速器,能够尽可能降低功耗,延长电池供电设备的续航时间。
• (2)
流水线优化:将模型计算组织到高效的流水线中,可减少延迟,确保实时应用中的快速响应。
• (3)
内存管理:对内存的分配和释放进行高效管理,可防止内存泄漏,并优化模型在随机存取内存(RAM)有限的设备上的性能。层融合和就地计算等技术可降低内存需求,便于在有限的RAM上拟合更大的模型。最后,优化内存访问模式(如缓存常用数据)可以提高整体速度和响应能力。
结语
在嵌入式系统上使用ML有望在资源有限的环境中提高智能性和自主性,但也带来了独特的挑战。与通用计算机不同,嵌入式设备通常依赖于有限的内存、处理能力和电池寿命,它们处理的数据来自传感器输入,而不是文本或结构化数据集。在这些限制下,需要采用轻量级模型和创新优化技术,才能保持准确性、效率和响应速度。其关键策略包括使用权重共享、低秩分解和量化等方法来解决计算能力的限制,而稳健的模型设计则可以缓解过拟合和噪声数据等问题。此外,微调和迁移学习可以使预训练模型适应特定的任务,从而减轻嵌入式硬件的负担。
高效的硬件感知设计,在优化性能方面也起着至关重要的作用。神经架构搜索、硬件加速和内存管理等技术有助于为特定的嵌入式平台定制ML模型,确保高效计算和低能耗。先进的优化策略,包括超参数调整、梯度下降的各种变体和联邦学习,可实现实时推理和低延迟响应,这对于物联网、移动设备和自主系统等应用至关重要。利用这些技术,开发人员可以创建机器学习解决方案,克服嵌入式系统的固有限制,同时实现更高的可靠性和可扩展性。
Figure (18)
图1:非结构化剪枝会减少节点之间的权重总数。本例中,原始网络(左)包含36个权重,而剪枝后的网络包含23个权重。
权重共享可减少内存中需要存储的唯一权重数量。在剪枝后的网络中,每条线的颜色代表一个特定权重。
(图源:Green Shoe Garage,贸泽重新绘制)
图2:低秩分解保留了大部分必要信息,并且只会引入微小的近似误差,从而能够在物联网硬件和微控制器等资源受限的设备上进行高效的推理和训练。(图源:Green Shoe Garage,贸泽重新绘制)
图3:网格搜索会穷举所有可能的组合进行求值,而随机搜索
只对一个子集进行采样,在许多情况下能更快地得出结果。
(图源:Green Shoe Garage,贸泽重新绘制)
Figure (19)
关于作者 (6)
关于作者
专业工程师Michael Parks是Green Shoe Garage的联合创始人。Green Shoe Garage是一家提供定制电子设计的工作室和嵌入式安全研究公司,位于马里兰州西部。Michael Parks创办了《Gears of Resistance》播客来提升公众对科技的认知。他还拥有马里兰州专业工程师资质,并获得了约翰•霍普金斯大学系统工程硕士学位。
Figure (20)
Figure (21)
RZ/V2N 评估套件
采用
RZ
/
V2N
中档嵌入式
AI
微处理
器 (
MPU
) 为嵌入式人工智能 (
AI (1)
)
应用提供全面的开发平台
mouser.cn/renesas-rz-v2n-eval-kit
人工智能监管框架 (1)
人工智能监管框架
作者: (4)
作者:
Robert Dempsey
,贸泽电子专稿
人工智能 (AI) 的快速崛起引发了关于监管、伦理和社会影响的激烈讨论。与其他技术不同,AI先于监管框架推出,导致在训练数据、隐私和知识产权方面出现争议。欧盟2023年通过的《人工智能法案》是针对AI的首次重大立法回应,但如何在不扼杀创新的情况下监管这一变革性技术仍存在疑问。接下来,我们将通过与AI专家Jared Bowns的讨论,分享他对AI监管领域挑战与机遇的见解。
Dempsey:在开始之前,您能先做个
自我介绍吗?
Bowns:好的。我是Elyxor的数据与AI实践负责人,专注于软件咨询、技术战略制定与实施。过去十年间,我有幸参与了多项变革性AI项目,尤其是在DataRobot担任工程副总裁期间, 我成立了可解释AI团队,致力于与政府机构和行业领导者合作制定监管框架,以提高透明度和合规性。我热衷于让AI不仅富有创新性,更真正触手可及。
探索适应性监管的概念
适应性监管对您意味着什么,如何在
AI行业中有效实施?
适应性监管意味着拥有随着时间推移而不断演进的灵活规则,尤其是在AI等高速发展的领域,几乎每隔数周就会出现突破性进展。无论是初创企业,还是像谷歌、亚马逊或OpenAI这样的成熟企业,AI领域的快读发展都要求监管框架既能保障安全,又不阻碍创新。一成不变的立法是行不通的。相反,我们需要一个类似于美国联邦贸易委员会或证券交易委员会的专门监管机构,专门负责制定和维护适合AI的监管框架。
监管框架如何才能跟上AI的快速发展,
同时又不阻碍创新?
首先需要承认的是,期待政府能面面俱到地处理所有问题,确实有些不切实际。促进顶尖研究人员、公共部门和私营部门之间的合作至关重要。AI对不同行业的影响大不相同,这意味着一刀切的监管方式行不通。英国的AI Airlock计划就是一个成功的定制化方法例证。 该计划提供了一个安全的实验空间,同时吸取经验教训,为新兴监管框架提供参考。其公私合作模式非常成功,可为其他领域提供借鉴。
鉴于针对OpenAI的诉讼案例,您如何看待促进创新与安全之间的平衡?
随着行业的发展,诉讼在所难免。早期阶段往往混乱不堪,我们已看到了涉及OpenAI的版权诉讼案例。然而,这些案例也凸显了问责机制和防护措施的必要性。例如,企业通过投资早期初创公司来巩固市场主导地位的行为,引发了对垄断行为的担忧,进而可能会阻碍创新。监管必须防止垄断,同时又不阻碍小型企业的进步。企业必须在推动创新与履行问责之间取得平衡,以确保市场竞争的公平性和技术发展的伦理性。
您能否举例说明其他行业可能适用于
AI的监管方法?
如果我们回顾一下二十世纪五六十年代的历史案例,许多极具变革性的技术均源自政府资助的研究或公共与私营部门的合作。同样,AI的发展也可能受益于公共与私营部门投资的结合,以确保创新与社会目标相一致。
预测性AI与生成式AI的区别
预测性AI与生成式AI有哪些本质区别?
为什么必须明确区分两者?
预测性AI与生成式AI听起来可能很相似,因为它们都属于AI范畴,但它们的应用场景却大不相同。预测性AI专注于分析历史数据以预测未来结果,例如预测客户流失率或判断设备故障的可能性。它利用历史数据识别模式并计算概率。而生成式AI则用于创建新内容——文本、图像或模拟。虽然预测性AI在基于概率的决策制定方面表现出色,但生成式AI更适合创意任务,如头脑风暴或模拟可能性。所以选择合适的工具非常重要;若将错误类型的AI应用于特定问题,可能导致糟糕的结果。
在安全性、可靠性和道德使用方面,
预测性AI和生成式AI面临哪些独特
挑战?
预测性AI面临的最大挑战是数据质量。如果输入数据存在偏差,输出结果将会反映出这一点,从而强化刻板印象,甚至歧视特定群体。这在金融或保险等受监管行业尤为严重。生成式AI也面临着自身的挑战,例如幻觉,即模型生成看似合理但却是虚假或无意义的内容。另一个问题是滥用,深度伪造和虚假内容在社交媒体上已经十分普遍。这两类AI都需要强有力的监管和仔细的监督,以确保安全部署。
对AI决定论的误解如何影响企业选择
和实施AI解决方案的方式?
现在普遍存在一种误解,认为AI的输出总是准确或真实的。这种想法可能导致对AI的过度依赖,将其视为无懈可击的真理来源。实际上,AI系统是基于统计概率运行的,可能会犯错。企业必须以正确的思维方式对待AI,将其作为获取洞察的工具,而非最终决策者。
为什么为特定任务选择正确的AI类型(预测性或生成式)非常重要?
在工作中,选对工具非常关键。预测性AI适用于分析模式和预测结果,而生成式AI则擅长创建独特内容或总结大量文档和文本。使用错误类型的AI可能导致错失洞察或性能不佳,因此在部署前了解其优缺点至关重要。
AI的监管与社会影响
广泛采用AI可能会引发哪些社会经济
差异?
AI正在各个层面重塑各行各业,从法律等白领岗位,到制造业和客户服务等蓝领工作,影响深远。在法律领域,AI正接管研究、合同审查和文件起草等工作,而这些工作传统上为初级员工提供了职业发展机会。 同样,在制造业,对类人机器人的投资正在改变组装和包装等任务,例如亚马逊仓库就展示了机器人能够在没有人类干预的情况下完成端到端操作。
就连客户服务也正经历一场变革,AI驱动的聊天机器人开始处理越来越复杂的交互和任务。随着自动化程度的不断提升,各行业初级岗位正逐渐消失,职业发展路径趋窄,社会经济鸿沟加深。为防止形成只有能够适应并利用AI者才能受益的两极分化经济,我们必须采取积极措施,例如技能提升计划和公平的AI政策,以确保这些技术进步能够造福整个社会。
如何通过监管确保AI惠及所有人?
加大对劳动力再培训与教育的投资,是实现这一目标的关键所在。对AI基础设施的公共资金投入,尤其是在欠发达地区,可以帮助缩小差距。通过扩大AI的访问权限并创造技能提升机会,我们可以确保更多人能够参与到AI驱动的经济中。
如何在促进社会公益的同时防止AI对
弱势群体产生负面影响?
我们必需将透明度和公平性作为监管的核心。例如,强制性审计可以确保AI系统不会加剧歧视。对开发解决社会挑战的AI解决方案
(如改善医疗或教育)的公司提供补贴,也能产生实质性影响。
确保问责制
鉴于近期AI引发的危害事件,建立明确的问责机制,其重要性究竟有多大?
随着AI系统日益深入人类日常生活,建立健全的问责机制已成为该领域广受关注的议题。近期涉及Character.AI等平台的事件,进一步凸显了在缺乏明确责任归属机制下所面临的潜在风险。 虽然采取简单措施(如年龄限制)可能有所帮助,但这并未解决根本问题: 当危害发生时,往往难以确定责任方——是开发者、训练者、基础设施提供商,还是用户本身。
开源模型因缺乏单一责任主体,使问责难题更加严峻。缺乏明确框架意味着受害者可能无法寻求救济,这将削弱公众对AI系统的信任。政府和监管机构必须迅速采取行动,制定相关规则以减轻危害、在出现故障时重建信任,并为AI在生活关键领域发挥日益重要的作用做好准备。
监管机构可以采取哪些措施确保人类
对AI结果负责?
首先,我们要保证透明度。企业应记录
AI模型的训练和部署方式。设立首席
AI官等职位也可确保组织层面的监督
和问责。
在实际实施中,这可能涉及以下方面:
•
影响评估:在AI系统投入生产前,评估其潜在的社会和环境影响。
• (1)
健壮的测试框架:开发框架,使AI模型在部署前暴露于各种场景以发现潜在问题。借鉴软件工程中的混沌工程概念,我们可以模拟各种故障场景对AI系统进行压力测试。
• (2)
•
红队测试:许多行业已开始组建红队,这些团队的任务是试图让模型表现出非预期或不道德的行为。将此过程纳入开发流程可提前识别漏洞,避免其影响公众。
AI系统造成危害的事件能为行业带来
哪些启示?
负面事件凸显了严格测试与监控的重要
性。持续监督及对伦理实践的承诺可预
防未来危害并增强公众对AI技术的信
任。
非常感谢您,Jared,抽出宝贵时间参与这次交流。这次讨论让我受益匪浅。
也感谢您,Robert。很高兴能有这样的
探讨机会。
Figure (22)
AM62A/AM62A-Q1
基于ARM的处理器
®
基于异构
ARM
的处理器,包括嵌入式深度学习 (
DL
)、
视觉处理加速和视频、显示器接口以及网络选项。
mouser.cn/ti-am62a-sitara-processors
1 (1)
1
gov.uk/government/collections/ai-airlock-the-regulatory-sandbox-for-aiamd
2
bloomberg.com/news/articles/2024-11-15/ai-replacing-entry-level-jobs-could-break-the-career-ladder
3
natlawreview.com/article/new-lawsuits-targeting-personalized-ai-chatbots-highlight-need-ai-quality-assurance
4
forbes.com/sites/jackkelly/2024/05/28/the-rise-of-the-chief-ai-officer
Figure (23)
Figure (24)
Z-PACK HM-eZD
硬公制背板连接器
关于作者 (7)
关于作者
Jared Bowns是AI行业的执行领导者,拥有超过十年的跨领域经验,专注于商业战略、产品开发与设计。作为DataRobot的工程副总裁,他在构建公司的AI平台方面发挥了关键作用,推动其规模化以满足企业需求,并协助制定技术和产品战略。以技术专长与战略远见相结合而闻名,Jared现担任Elyxor的数据与AI业务负责人,指导企业解锁AI潜力,并通过切实可行的可持续解决方案应对复杂挑战。工作之余,Jared热衷于木工制作,并喜欢与家人共度时光,享受自然与科技的交融。
具备
56Gbps
数据传输速率、
向后兼容性以及宽工作温度
范围
mouser.cn/te-zpack-hm-ezd-connectors
view archives of Methods 电子书 - 直面AI(中文版)