励讯集团《负责任的人工智能原则》

励讯集团是一家为专业和商业客户提供基于信息的分析和决策工具的全球供应商,帮助客户做出更好的决策、取得更好的成果并提高生产力。

我们的目标是通过开发产品来帮助研究人员推进科学知识;帮助医生和护士改善患者的生活;帮助律师赢得案件;帮助企业和政府预防欺诈;帮助消费者获得金融服务并获得公平的保险价格;帮助客户了解市场并完成交易。

我们的目标引导着我们的行动,不仅仅是在产品开发的层面。整个公司都以该目标为己任。励讯集团每天都会鼓励员工采取各种措施,为社会和我们所在的社区做出独特的贡献。

我们的内外部解决方案均能增强决策能力。这基于我们对企业责任的承诺,我们肩负的责任确定了我们开展业务的方式,我们必须积极主动地加强我们的正面影响,并预防负面影响。

在提供高附加值解决方案的过程中,我们使用日益先进的分析和技术。从提供洞察、识别潜在风险因素和建议,到协助客户和同事进行决策,我们的产品和应用涵盖一系列基于信息的分析和决策辅助工具。

日益复杂的技术的出现、达成决策以及对人的潜在影响等因素相互交织,既带来了新的挑战,也创造了许多造福社会的机会。

励讯集团首席战略官 Jelena Sevo

“长期以来,我们一直利用先进的技术和分析工具,帮助客户解决复杂问题。我们对人工智能技术的合规使用,将继续推动我们的发展和创新,以及我们为客户创造价值的能力。”

负责任的人工智能原则:目的和范围

一般来说,我们使用人工智能(AI)一词描述基于机器的系统,此类系统为既定任务提供解决方案,并具有一定程度的自主性。但是,这些原则的范围比人工智能更加广泛,其中包含源于数据科学领域的工具和技术以及任何机器驱动型见解。这些原则为励讯集团从事设计、开发和部署机器驱动型见解的所有人员提供高级别指导。通过借鉴我们公司和其他公司的最佳实践,这些原则提供了一个基于风险的框架。各业务领域负责实际执行这些原则。

励讯集团及其业务部门已经制定了适用于人工智能解决方案的健全政策和流程。《负责任的人工智能原则》旨在对这些政策和流程进行补充。人工智能是一个以前所未有的速度和规模不断进化的领域。这些原则将根据同事和客户的反馈以及行业和立法趋势而不断迭代。这将让我们能够未雨绸缪,确保我们的解决方案符合我们的价值观,并帮助我们在竞争中保持领先地位。

“人工智能监管方面面临的巨大挑战之一,是没有关于人工智能、’人工智能偏见‘或‘人工智能道德’的公认定义。不同的人看待人工智能的角度也不同,它是一个囊括各种不同技术的广义术语。因此,在这一尚未受到适当监管的领域中,励讯集团采用一套原则来引导我们的思考。随着讨论的深入发展,这些原则将不断调整和演变。”

励讯集团首席技术官论坛主席 Vijay Raghavan

励讯集团 《负责任的人工智能原则》的核心内容包括:

#1 我们充分考量解决方案的现实影响

这使我们能够根据公司的价值观制定出值得信赖的解决方案。

我们认识到,解决方案可以帮助客户做出决策,因此我们留意解决方案可能对人们产生的潜在影响。  

人工智能是为客户和我们自身解决业务问题的一种方法,这意味着一系列假设和特定的现实背景。我们对背景理解得越透彻,对假设的认识就越清楚,进而构建更佳的解决方案,为客户带来更高的增值。

我们不仅要问“我们在构建什么,客户是谁?”我们还力求确定受益于我们解决方案的人群和受益方式,以及可能受到影响的人群和受到影响的原因。

为此,我们要界定解决方案的影响范围。我们系统梳理了除直接客户之外的利益相关方,并思考解决方案的适用领域:人们的健康、生计(包括职业前景)或权利是否会受到影响?这些见解使我们能够考虑特定解决方案所产生的影响。

励展博览集团首席技术官 Brian Brittain

“人工智能技术应侧重于改善人类的决策和结果。人工智能绝不能取代或削弱人类的创造性或力量。因此,人工智能开发必须始终以人为本。”

#2 我们采取措施防止产生或减少不公平的偏见

这将推动优质成果的产出,并避免歧视。

作为联合国全球契约组织的支持者,促进公平和非歧视是我们经营理念和价值观的核心。

我们深知,算法上的准确性并不能确保消除偏见,因此我们采取行动,防止进一步产生或激化偏见。

如果不采取此类行动,不经意间,就可能在数据输入和/或机器处理或算法中引入偏见。偏见一旦引入,就会通过数据科学、产品管理和技术领域的人类决策得到复制。

这可能导致结果出现偏差,从而影响输出结果的价值。另外还可能基于性别、种族、社会经济地位和其他个人属性,对个人或群体产生不利的结果。

我们为防止产生或激化不公平的偏见而采取的行动包括:实施程序、广泛的审查和记录过程,以及使用现有的自动偏见检测工具等。

“偏见和歧视均是人工智能带来的最大风险之一。负责任的公司必须尽一切可能采取措施,识别和减少人工智能系统中的偏见。平等和公平原则必须高于技术。”

励讯集团公共事务总裁 池永硕

#3 我们可以解释解决方案如何运作

适当的透明度可为用户和监管机构带来可信度。

这一原则并不用于规定要构建和使用什么模型,也不禁止使用“封闭式”模型(“closed box” models)。其目的是为各种应用和用例提供适当的透明度,以确保不同的用户都能理解并信任输出结果。

不同的环境和受众需要不同的解释。作为设计流程的一部分,我们会考虑解决方案中哪些元素需要解释、向谁解释,以及如何解释。我们还会评估解决方案的可靠性,并明确其预期用途。

爱思唯尔首席技术官 Jill Luber

“在与我们所服务的社区建立信任的过程中,透明的人工智能是重要一步。透明性可以让使用我们工具和产品的人了解特定人工智能系统的设计依据。而且,我们可以解释人工智能模型做出特定决策的原因,使我们的社区能够在适当信任和理解的情况下使用这些系统。”

#4 我们通过人为监督来保证安全可信

这可以保证机器持续输出高质量内容,并有助于预防意外使用。

我们的技术有助于客户的决策过程。重要的是,人类能控制人工智能系统的开发、使用和结果并对其承担责任。

在解决方案的整个生命周期中,我们一直进行适当程度的人工监督。这是确保我们解决方案的质量和适当性能的核心所在。

解决方案一经推出,则意味着客户将成为最终决策者。对我们解决方案的使用,受一系列约定条款和相关法律的约束。我们要求客户对这些必要条件负责。在确保客户理解预期用途以及内部团队妥善处理质量问题方面,为客户提供支持的同事发挥着重要作用。

“在人工智能开发的各个阶段,人们都会积极参与其中,以求最大限度地降低风险,防止破坏人类的自主性。我们的目标是构建以人为本的产品,优先并强化人类决策。”

律商联讯首席技术官 Jeff Reihl

#5 我们尊重隐私,倡导稳健的数据治理

这确保我们持续被公认为值得信赖的信息解决方案供应商。

作为一家信息和分析公司,针对数据的适当收集、使用和保护对我们的长期成功而言至关重要。

随着我们对数据资产的维护和扩展,以及对获取洞察的新方法的探索,我们认识到强有力的数据管理至关重要。只有在获得大量优质数据的情况下,人工智能系统才能更准确地运行,并且有些数据集可以跨解决方案并在多种用途下使用。我们需要确保建立健全的数据管理以及安全政策与程序。

某些数据集包含个人信息。我们承诺按照所有适用的隐私法律和法规以及我们自身的隐私原则处理个人信息,这要求我们始终以负责任的方式管理个人信息。

爱思唯尔首席技术官 Jill Luber

“励讯集团对公平、负责任和可解释人工智能实践的承诺,确保了我们的人工智能使用受到健全的数据保护管理。”

communications.china@relx.com

关注励讯公众号

励讯集团

北京市东城区东长安街1号东方广场西一办公楼7层
+86 10 85208800
www.relx.cn

爱思唯尔

北京市东城区东长安街1号东方广场西一办公楼7层
+86 10 85208800
https://www.elsevier.com/zh-cn

励展博览集团

上海市静安区裕通路100号宝矿洲际商务中心42层
+86 21 22317000
www.rxglobal.com.cn

律商联讯

北京市东城区东长安街1号东方广场西一办公楼7层
+86 10 85208800
www.lexisnexis.com.cn

律商联讯风险信息(风险合规)

上海市天山西路567号5楼A单元
+86 21 61333000
https://risk.lexisnexis.com/global/zh/

律商联讯风险信息(保险)

北京市朝阳区新源南路3号平安国际金融大厦A座15层
+86 10 82700018
www.lexisnexisrisk.cn

Cirium(睿思誉)

北京市东城区东长安街1号东方广场西一办公楼7层
+86 10 85208800
www.cirium.com

ICIS(安迅思)

上海市长宁区金钟路999号C座4楼
+86 (0)400 7200 222
https://www.icis.com/explore/cn/

京公网安备 11010102006507号

© 2024 RELX Group plc