ChatGPT的诞生激发了前所未有的创造浪潮,也让公众直观地感受到生成式AI的力量。但缺少规范的技术如同一个尚未辨知善恶的新生儿,在带给人类极大帮助的同时,也潜藏着新的风险。
比如,新加坡《海峡时报》曾报道某科技企业工程师在借助ChatGPT处理工作时,无意中将产品核心数据输入其中,导致商业机密外泄。越来越多ChatGPT用户也发现,在与AI对话时会收获一些细节丰满的故事,甚至言之凿凿的文献介绍,但实际上这些并非真实信息,而是生成式AI的“模型幻想”
对企业而言,生成式AI将改变工作方式、重塑商业模式。越来越多的企业已开始积极探索相关应用,以期提升创新效率、实现高质增长。但生成式AI的风险同样需要引起重视。
首当其冲的就是合规风险,它贯穿于模型设计、搭建、使用各个阶段,并会产生长远的效应。比如,生成式AI基于学习需要而对用户数据的留存、分析是否侵犯了个人和商业隐私,以及相关数据保护法案;它在借鉴创意作品(如画作)的过程中,是否侵犯了作者版权和著作权;由此产出的作品又是否可用于商业用途;甚至使用生成式AI本身,是否违反了部分国家和地区的法律法规。
同样可能在生成式AI的生命周期中出现的还有数据风险。生成式AI的运作核心是机器学习,其价值与数据的质量和真实性密切相关。如果一台基础模型长期浸染在存有偏差的数据当中,它就会被这些数据“诱导”,从而输出错误的信息或执行歧视性操作。另一方面,某些群体特质也会使生成式AI为其打上固化标签,“一刀切”地去执行某些程序,而失去了应有的公平性。
此外,用户风险也是需要重点关注的一环。事在人为。生成式AI的价值高低,很大程度上取决于使用它的人。我们需要通过一系列的法律法规、流程规范来防止人类有意、无意地使用生成式AI造成负面影响。
价值风险也是企业和使用者应该考虑的内容,即使用生成式AI是否可能有违社会、企业和个人的价值文化。比如,《MIT技术评论》曾指出训练一台普通AI模型消耗的能源,相当于五辆汽车全生命周期排放的碳总量。为此,在部署AI战略的时候,我们必须思考相关碳排放是否会减缓乃至抵消企业的零碳进程,继而有所取舍。
埃森哲认为,打造负责任的生成式AI,不是一项“见招拆招”、“亡羊补牢”的局部任务,而是在生成式AI基础模型的设计之初就应未雨绸缪,并在其全生命周期中持续领航匡正的系统性工程。
令人庆幸的是,大多数的政府部门和企业已经意识到让生成式AI更“有责任感”的重要性并开始采取积极行动。埃森哲最新全球调研显示,97%的受访高管认为自身企业将受到AI相关监管法案的影响,77%将对于AI的监管列为优先事项。此外,有80%的受访者表示,他们将投入10%或更多的AI总预算,以满足未来的监管要求;69%的受访高管表示所在企业已经开始尝试负责任的AI实践,但并未将其作为运营基础。
值得注意的是,不少受访者认为,合规的AI将为其提供额外的竞争优势——43%的高管认为这将提高他们将AI产业化和规模化的能力,36%认为它将为竞争优势和差异化创造机会,41%认为它可以帮助吸引和留住人才。
与之相应,在去年发布的埃森哲《AI成熟之道:从实践到实效》报告中,我们还发现,有13%的受访企业成功使用AI技术实现了超过50%的收入增长,同时在客户体验(CX)和环境、社会与治理(ESG)方面表现出色。相较于普通企业,这些“AI领军者”更加注重从设计企业各个环节的时候就把负责任的AI列为优先事项。
虽然多数企业已经认识到培育负责任AI的价值并正致力于此,但只有6%的企业建立了负责任的AI基础并将该原则付诸实践。过于传统的组织架构、风险管理框架、生态伙伴、AI人才和考核标准,都是限制企业成功的主要原因。
埃森哲建议,企业可以从原则与治理,风险、政策与管控,技术与支持,文化与培训四个层面入手,通过设计让生成式AI变得更负责任。
成都惠普HPE总代理 — 成都强川科技有限公司,一直以客户需求为导向,不断提供最新更全的惠普HPE服务器、存储产品以及最新最潮的增值应用解决方案,并且支持个性定制。了解更多产品信息及最新促销信息,可拨打客服专线:028-85024766/18215624006或登录成都服务器官方网站www.hpedl.com ,与西部地区惠普HPE产品用户共同见证卓越。