偷窥自拍
制定正确的AI伦理政策对组织至关挫折。如果招聘算法或求职收尾中存在性别偏见,那么这件事情一朝被公布,就有可能会毁伤公司的声誉,使公司受到监管审查,以致招致多数的政府罚金。感受到这种挟制后,越来越多的企业运行创建故意的结构和进程,来积极主动地贯彻AI伦理。一些公司以致更进一步,建立了AI伦理的轨制框架。
但是,许多起劲齐忽略了一个挫折事实:不同文化配景下的说念德不雅是不同的。最初,一种文化中的瑕瑜不雅念可能压根无法调节到不同的文化配景中。其次,即使在瑕瑜对错上达成了一致,在说念德伦理方面,不同文化间也可能存在挫折相反。文化表率、宗教传统等齐需要琢磨在内。终末,AI和研究数据法例在不同地域也无法保抓一致,因此,AI伦理的合规性也会产生相反。这些身分齐会对公司、客户以及业务酿成影响。
当今,新兴的各人AI伦理轨范主要所以西方视角制定的。举例,“各人AI伦理指南目次”(AI Ethics Guidelines Global Inventory,AEGGA)是一个聚积了文告、框架和建议的数据库,兑现2024年4月,它依然集聚了173项指南,并示意:“绝大多数[指南]来自欧洲和好意思国。”由此可见,AI伦理轨范并不像东说念主们遐想的那么各人化。但是,许多公司只是随意地聘任了这些轨范,并将其应用于各人。
西方视角也被恍惚地编码到AI模子中。据猜测,ImageNet上独一不到3%的图像代表了印度和中国的侨民社群,但这两个国度的东说念主口加起来却占各人东说念主口的三分之一。从广义上讲,缺少高质料的数据可能会导致瞻望智商低下、对代表性不及的群体产生偏见,以致压根无法为某些群体开荒用具。比如,当今,东说念主们还无法用互联网上使用率不高的话语老师空话语模子(LLM)。最近,一项对印度IT组织的探员表露,缺少高质料的数据仍然是遮蔽AI伦理施行的最主要身分。
跟着AI的普及和其对业务运营的照顾,不加节制地使用AI,同期缺少说念德考量,可能会毁伤公司过火客户的利益。
为了贬责这个问题,公司需要制定一个有针对性的各人AI伦理模子,优先与腹地团队和利益研究者融合,并将决议权下放给腹地团队。如果公司的业务遍布多个地区,这少量愈加挫折。
为AI伦理增添内涵
许多公司齐有智商从新运行建立一个各人化的、有针对性的AI进程。这主若是因为,它们当今还莫得这么的进程——他们莫得需要铲除或从新遐想的内容,也莫得需要对职工进行再培训的契约。比较依然推出了单一、救济的AI伦理政策的公司来说,这些公司反而处于更好的阶段。这些正在制定新政策的组织,内容上有很好的契机作念好这件事。
把柄咱们的责任教养,以及对来自不同地区的AI用户和开荒东说念主员等利益研究者的采访,咱们发现,制定和实施适应的AI伦理政策需要三个体式。
最初,公司需要就适用于各个地域的驱动原则达成一致。在咱们熟练的大多数案例中,各人指引团队负责这项责任:他们与天下各地的团队融合,共同制定、辩论和完善这些率领原则。
其次,需要在公司的不同地区设立研究团队。如果公司在某一地区有挫折业务,或者计算在不久的改日在该地区膨大,那就需要在腹地成立一个跨职能的团队(至于怎样组建这个团队,将另文辩论)。这个团队将负责落实各人指引团队制定的AI伦理框架,并应获取相应的奖励——不然,组织就可能将更多的背负推给旯旮团队。在某些情况下,组织可能需要引入外部东说念主员,尤其是在缺少教养的地区。
telegram 反差终末,各人指引团队在开荒初期需要与腹地的AI伦理团队进行一系列对话。对话的反馈意见需要纳入公司的举座AI政策,然后再传递给这些腹地团队,授权他们把柄自身情况进行调节。这些调节也需要与各人指引团队疏导,并把柄反馈进行完善。
以惠普企业公司(Hewlett Packard Enterprise,HPE)为例。在HPE,首席合规官与AI研究实验室融合,同期从每个职能部门和居品部门抽调代表,一同编写了各人AI原则。由于团队具有地区千般性,这份原则中所琢磨的伦理身分更有可能适用于统统公司运营的地区。因此,HPE的合规团队创建了一个横跨各人的原则矩阵,集结了地区特定的法例和政府框架,确保HPE的各人原则在腹地视角下依旧通用。
抓续让AI伦理更相宜内容情况
在运行时,咱们还必须琢磨到,最高照顾层可能对各地区的具体情况了解不及。因此,他们可能会将与各人AI伦理轨范不符的活动视为造作活动。比如,一个各人AI伦理团队在检讨职工薪酬的算法时,可能会章程,不得将职工放假的些许纳入其晋升轨范。这么作念的动机是饱读吹男性和女性在必要时休育儿假和病假,同期无谓惦念放假对行状生计的影响。但是,在日本等国度,这么的政策很可能会被修改。希拉里·霍尔布罗(Hilary Holbrow)的冲突性研究标明,日本公司的职工以为这么的政策极不屈正。从文化角度来看,在不参加巨额资源来获取各方招供的情况下,凯旋履行这么的政策是不对适的。
这个例子标明,天然在各人大部分地区,为了对等而设立政策是一种成心的变革,但在AI算法中,这种作念法可能不会带来同样积极的反馈。不外,在一些组织中,腹地的利益研究者正在创建数据资源,来匡助组织更准确地感知当地环境。举例,加拿大原住民社区(Canadian First Nations communities)建立了对于数据集聚和使用的框架和培训神态,这对任何想在该地区开展业务的组织来说齐是至关挫折的。
抓续参与AI伦理的设立,除了不错提宏各人指引层对不同地区的坚强外,还不错让他们在某些情况下遵从腹地团队,但在另一些情况下又能凌驾于腹地团队之上,从而使两者的关系达到奥妙的均衡。HPE建立的自动化进程即是一个例子。在启动触及AI的新神态或招标进程时,他们的合规软件会自动安排团队东说念主员与当地的AI治理小组举行会议。腹地团队为对话提供配景信息,而各人团队则就HPE的原则和AI治理框架提供更高级次的专科常识。跟着时间的推移,这让HPE里面建立了一套不错处理不同AI说念德问题的“案例法”。
HPE面对的挑战是,各人照顾团队无法先见场地出现的问题,以及组织自身固有的、无法猜想的例外情况。HPE并莫得尝试创建一个详备列出千般情境的AI伦理政策,因为这个政策势必会遗漏一些内容。它取舍建立一个通用的框架和进程,这个框架和进程不错解答具体问题,建立记载,并抓续追踪记载。这种方法还有一个自制,即是不错嘱咐一个自身就处于动态变化的天下——即使今天的某些活动是相宜伦理的,但改日可能会发生变化。而建立一个能追踪和调节伦理决议的进程,HPE就不错更好地嘱咐这种固有的动态性。
缺憾的是,并莫得硬性章程来告诉公司怎样建立这些进程。即使是在上头的例子中,指引层也有可能因为公司的中枢价值是平正性,从而推翻腹地团队的反馈意见。一般来说,如果各人指引层能明确传达其方针和政策,这种情况应该很少发生,而况应至少每年审查一次这些决议。如期审核对AI治理至关挫折——时期在变、当地的环境在变、治理效果的数据被抓续握住地集聚、公司政策也在挪动。如期辩论和审核对于AI伦理的可抓续性至关挫折。
建立对于AI伦理的愿景
除了AI伦理的具体实施过程外,咱们在访谈中还发现了另一个挫折问题:公司缺少远见。一位AI伦理团队成员示意(他来自印度一家时期公司协会),大多数组织聘任的是一种基于合规性的伦理不雅。因此,独一在客户(主要位于西方)或腹地监管机构的条目下,组织才会落实AI伦理政策。
麻省理工学院和波士顿商讨公司最近举行的一次专题辩论会也得出了与此相关的论断。与会者一致以为,当今的要点是AI的经济效益。而这场由AI激励的淘金热依然镌汰了对于伦理的考量,或将其简化为单纯的合规问题。这种褊狭的作念法不仅与组织公开标明的态度以火去蛾中,而况可能将制定AI伦理政策简化为“应付差使”,进一步让组织不够喜爱政策的各人化和因地制宜。
HPE原计算在6周内制定其AI伦理原则。他们铺张了一年多的时间来制定一个适应HPE的框架,并创建了概况让当地团队调节政策的进程。其中,大部分时间用于贬责看似随意的声明背后的毒手问题——举例,“咱们盲从法律”看似随意,但当真确想考这句话时,就又会产生无数问题。盲从哪种法律?怎样均衡当地法律和各人东说念主权原则?作念这些决定需要征求哪些利益研究者的意见?如果公司莫得准备好谨慎参与这些辩论,那么就标明,公司的参加不及,收尾反而会创建一个无效的、应付差使的框架。这不仅会蔓延进入新阛阓的时间,还可能导致居品性量下落,而况也无法贬责许多公司关注的法律背负问题。
用时期落实AI伦理
终末,咱们在访谈中发现了一个真义真义且积极的趋势,即时期居品正在赶快填补外部开荒的AI模子与组织里面用户之间的空间。通过这种花样,时期居品将详细的AI伦理宗旨滚动为数字化的、可设置的参数。举例,一位居品司理告诉咱们,他们的LLM安全居品将AI伦理的应用分红了四个类别:宗教、性别、种族和健康。该居品监控外部开荒的LLM在每个类别上的发挥,这四个类别在使用领导时又被进一步归类为更具体的术语。因此,用户组织不错设置这些类别,来界说相宜伦理条目的LLM使用花样,并以此作为其AI伦理政策的一部分。这种设置界面不仅不错升迁着力,还能扩展到LLM以外,让腹地AI伦理团队更容易将高级照顾层制定的AI伦理框架“腹地化”。
HPE的方法天然在时期方面可能不那么“前沿”,但它聘任了算法和自动化进程,积极主动地让一线开荒东说念主员和销售东说念主员提议AI伦理问题,细目他们提议的案例是否涵盖在现存的“案例法”之内,并追踪处理收尾。各公司应效仿HPE,要点运用时期来强化我方的AI伦理进程,而不是隐约地将时期和自动化集结在通盘。
论断
从上述辩论中不错看出,AI伦理的腹地化是一项挫折挑战。天然有许多原因复古AI伦理的腹地化,但AI用户组织的反映却不尽一样。尽管HPE等组织依然走在了前沿,为AI伦理的腹地化制定了周详的进程和框架,但其他组织似乎还在摸索一些基础问题,比如怎样构建AI伦理研究的施行;而有些组织只是把它手脚一个合规问题。但是,跟着AI的快速发展,怎样制定和落实因地制宜的AI伦理步履,则是统统企业濒临的挑战。
贬责这些问题的一个主见即是组建腹地AI伦理团队,并抓续与之融合。为此,咱们提议三点建议。最初,公司应与当地职工通盘制定AI伦理表率。HPE对不同地区的AI伦理和治理方法进行了详备的探员,并与当地团队抓续互动,这即是一个很好的例子。其次,在早期,公司应就自身价值不雅与各地区精深价值不雅的冲突点进行协商,就比如上文提到的日本文化价值不雅与算法搅扰晋升决议之间的冲突。终末,尽管公司对AI的使用有一套举座的不雅点,但也不错赋予场地指引者一定的自主权,让他们在伦理的基础上施行AI,同期也能嘱咐AI伦理的监管相反。天然,能在多猛进度上赐与这种自主权还需要进一步协商。
在聘任这些建议时,挫折的是,不要将AI伦理视为一条客不雅存在的“尽头线”。相背,与AI时期的构成部分一样,AI伦理也在握住变化。因此,公司耐久不会“完成”AI伦理和治理。这是一个抓续的过程。
斯瓦南德·德奥达尔(Swanand Deodhar) 法沃·博罗基尼(Favour Borokini) 本·韦伯(Ben Waber)| 文
斯瓦南德·德奥达尔是印度照顾学院艾哈迈达巴德分校(Indian Institute of Management Ahmedabad)的副老师。他植根于与施行的深度融合,以研究数字平台和数字转型等主题。他的研究效果发表在《照顾信息系统季刊》(MIS Quarterly)、《信息系统研究》(Information Systems Research)和《海外商务研究期刊》(Journal of International Business)等各人著名期刊上。法沃·博罗基尼是诺丁汉大学盘算机科学学院Horizon Centre for Doctoral Training的博士生。她的研究敬爱是贬责千里浸式环境中伤害问题的伦理框架。她领有尼日利亚贝宁大学法学学位,是尼日利亚讼师协会成员。她成效运用我方的法律配景探员了时期对东说念主权(尤其是妇女权益)的影响、AI对非洲妇女的影响,以及非洲妇女在各限制从事AI责任的阅历。本·韦伯是麻省理工学院媒体实验室的探员科学家,亦然立命馆大学的高级探员研究员。他的研究和买卖责任侧重于照顾、AI和组织效果之间的关系。他如故《东说念主力成分内析》(People Analytics)一书的作家。
DeepL、ChatGPT | 译 张雨箫 | 编校
《哈佛买卖辩驳》华文版 研究花样
投稿、告白、内容和商务融合
newmedia@hbrchina.org偷窥自拍