一氧化氮检测器

首页 > 产品展示 > 一氧化氮检测器

为什么科技公司需要小心对待人工智能

日期:2024-02-14 18:28:18 来源:一氧化氮检测器

  亚马逊在2018年被发现对女性存在偏见后,终止了其招聘工具。那么,为什么人工智能(AI)工具不像女性候选人呢?当工程师们深入研究时,他们发现AI是使用科技行业由男性主导的时代的数据来进行训练的。在此过程中,人工智能“了解到”男性候选人更受欢迎。不仅如此,它的机器学习(ML)模型已经学会了用“女性”这样的词来惩罚简历,比如“女性国际象棋俱乐部”。这就是它只推荐男性候选人的原因。

  虽然亚马逊在问题曝光后不再使用该工具,但它已成为如何不部署AI系统的一个主要例子。但即使在五年之后,这一事件的意义也只增不减。例如:根据埃森哲的2022年技术愿景研究报告,全球只有35%的用户信任公司如何实施人工智能。大约77%的人认为,企业一定为任何滥用人工智能的行为负责。

  虽然大型科技公司在开发可能有害的技术方面拥有更多经验,但印度初创企业ECO中如何负责任地用AI也提出了一个大问题。

  作为参考,印度的创业ECO是仅次于美国和中国的第三大。根据Nasscom和咨询公司Zinnov的估计,2021年印度约有3000家科技初创企业,其中AI领域的初创企业最多(1900家)。

  但是,在部署AI/ML时,科技初创企业意识到他们所承担的责任了吗?专家们表示,从一开始就灌输负责任的人工智能(RAI)的价值观很重要。创业创新中心T-Hub的首席执行官斯里尼vas Rao Mahankali表示:“有时,处于早期阶段的初创企业不一定会注意合规,因为他们有太多事情要做。”他补充说,任何此类疏忽都可能在以后反噬它们。

  一位不愿透露姓名的投资者表示,在早期阶段,围绕RAI的对话不会发生。这位投资人说,很多时候,创始人都知道这种技术被滥用的陷阱,但他们没足够的能力来避免这一些陷阱。利益相关者还指出,虽然高管层面对这样一些问题知道,但需要从企业金字塔向下渗透,以避免它们在真实的生活中产生有害影响。但是,一个人如何开始呢?

  让我们从基础开始。什么是RAI?专业服务企业埃森哲将其定义为本着良好意愿设计和部署人工智能的实践——赋予员工和企业权力,公平地影响客户——并充满信心和信任地扩展人工智能。

  RAI也被称为可信任或道德AI,有许多应用。例如,在印度,RAI的应用可以在零售偏好、库存管理、网络安全、医疗保健、银行等领域找到。

  “在医疗保健领域,人工智能被用于为医疗诊断提供见解,并识别复杂的健康模式。在这种情况下,安全性、偏差和可解释性(AI/ML模型及其输出可以以一种对人类“有意义”的方式解释的概念)是主要关注点。在银行业,人工智能被用于检测欺诈和分析用户行为。这也引发了公平和隐私问题。”TCS Research首席科学家萨钦·洛达(Sachin Lodha)说。

  这些应用表明RAI不仅影响企业,而且影响整个社会,特别是最终用户。AI有能力直接或间接地重塑资源配置和政策决策等。因此,必须评估如何使它们更加透明、公平、准确、无风险和无偏见。

  公司能采用一些简单的步骤来建立RAI,包括对能力建设的认识、评估影响、创建原型并根据行为模式、公平性、可解释性等各种指标对其来测试。然后过滤掉观察到的有偏差的模式。简单地说,RAI是关于设计系统,该系统能浓缩已发生的事情,以确定也许会出现的问题,然后采取主动步骤消除它们。然而,勇于探索商业模式的公司必须要格外注意的一个步骤是在模型中使用数据。

  HCL开放创新经理兼主管Achyut Chandra表示,通常情况下,人工智能会被输入大量数据,并基于这一些数据进行计算。这就是怎么回事,他说,具体是至关重要的。“考虑到我们从数据集中捕捉到的特征是很重要的。”他补充道。

  亚马逊的情况正是如此。在该行业以男性候选人为主的时代,该机构所接收的数据是这样的。人工智能根据它得到的输入显示结果。未解决这个问题,Nasscom的人工智能主管安基特·博斯(Ankit Bose)建议,初创企业应该尝试充分理解数据中的偏差,以便开始在源层面创建自己的数据集。

  目前,有许多可用的工具(来自微软,谷歌等)来检查AI系统的性能,但没有监管。这就是怎么回事专家们认为,无论是新老公司,都需要更多地考虑自我监管。

  例如,科技巨头塔塔公司(TCS)的策略是与许多公司做试点,同时定期对其流程进行审计,以完善其RAI模型。Lodha说:“这创造了一个api化的工具版本,它是可扩展的、可替代的,适用于不一样的AI模型,如计算机视觉、自然语言处理、序列到序列模型等。”

  另一种进行制衡的方式是通过彻底的审计。Lodha说:“需要对他们的流程进行定期审计,并及时验证他们是不是满足RAI领域标准的任何变化。”他还引用了欧盟委员会关于人工智能道德准则的高级专家组,或美国国家人工智能计划的战略支柱作为很好的参考点。

  除了科技巨头之外,还有一些知名的初创公司已找到了实施RAI的方法。SaaS“独角兽”icertis(提供合同生命周期管理(CLM)解决方案)的联合发起人兼首席技术官Monish Darda表示,几年前,他们将可解释的AI和伦理AI集成到他们的AI系统中。可解释的人工智能允许Icertis解释他们的人工智能产生的结果,实现结果与产生结果的数据之间的相关性。他说:“这对我们来说很有效,因为我们大家都知道我们是如何做出预测的,以及我们错过了什么。”与此同时,合乎道德的人工智能有助于Icertis向其用户和客户保证,用于训练其AI工具的数据是经过许可的,并符合预期目的。该平台还通过在考虑地理、文化等方面后选择合理的数据样本来确保数据集的无偏性。

  不仅如此,吸引来自不相同的领域的人来制作公平公正的AI系统也是一个巨大的推动力。谷歌的一位发言人表示:“为了推动人工智能的积极应用,不断提出问题,吸引专家——如软件研发人员、数据科学家、法律专家、创始人等——共同进步是至关重要的。”

  “意识是最大的支柱之一。我们应该理解RAI的人。”Bose补充说,当人们理解RAI时,他们将能够识别人工智能模型以与人类相同的方式解释数据的方式,并开发出可以在出现一些明显的异常问题时逆向工程的资源。

  Icertis的达尔达说,RAI不是魔法,也不是目的地。他断言,公司负责任地实施人工智能的需求是持续的,并补充说,破解RAI将需要大约10-15年的时间。“但我们会更接近于找出消除偏见的方法。”他说。从他自己的经历来看,达尔达赞同T-Hub首席执行官拉奥的观点,他说,有时候企业家对技术太兴奋了,以至于忘记了他们对待数据和算法的方式。因此,撇开RAI的主题是不可取的。初创企业要带头,因为如果不遵循适当的标准,他们会把用户置于危险之中。

  数据情报公司Fractal Analytics的首席数据科学家阿克巴尔·(Akbar Mohammed)引用了AI在精神医疗领域的用例作为警告。“今天,我们的AI可以根据你与朋友的对话方式、你浏览的新闻类型等来检测你是否有心理健康问题。如果你需要的话,这些情报可拿来提供支持,也可以被滥用。坏人会利用它来降低你在市场上的潜在工作前途。”

  那么,未来的道路是什么?“很难!软件公司Adobe董事长兼首席执行官山塔努·纳拉延承认道。Darda补充道,从设计阶段就开始考虑RAI是决定公司成败的关键。他表示,负责任的技术部署与产品的市场适应性、客户、财务等因素同样重要。“你一定要考虑也许会出现的意想不到的后果和偏见。我建议初创企业拥有更广泛、更强大的数据集,进行大量的测试,并进行大量的试点。”

  所有利益相关者都同意的底线在于你构建AI模型的意图和目的。处理大型流程、数据和别的信息的初创企业一定从一开始就做好。即使是现在,也还不算太晚。为什么?因为这一切都始于一个简单的问题:我是否负责任地执行AI ?