您现在的位置是:首页 > 科技 > 正文

如何利用人工智能消除商业中的偏见

发布时间:2024-07-05 10:28:02来源:

导读 CNET和CBS新闻高级制片人丹·帕特森(Dan Patterson)与Salesforce的道德人工智能实践建筑师凯西·巴克斯特(Kathy Baxter)就企业如何使用...

CNET和CBS新闻高级制片人丹·帕特森(Dan Patterson)与Salesforce的道德人工智能实践建筑师凯西·巴克斯特(Kathy Baxter)就企业如何使用人工智能(AI)来识别偏见和更好地理解自己的过程进行了交谈。 以下是经过编辑的采访记录。

凯西·巴克斯特:我预见到的一些事情是,企业能够使用人工智能来识别他们的过程中的偏见。 所以再说一遍,如果他们看看他们的训练数据,他们就可以看到一个模式。 例如,非裔美国人比高加索人更容易被拒绝贷款。 在你开始编辑培训数据之前,编辑你的模型,试图消除这种不平衡、缺乏公平性的情况,先退一步,看看业务流程。 为什么会这样? 这可能是孤立的特定地区,或办公室,或一套销售或贷款经理? 你怎么能修好它?

SEE:管理AI和ML的企业2019年:技术领导者期望比以前的IT项目更困难(技术专业研究)

我预见的一件事是,企业使用人工智能来真正更好地理解自己的业务流程,并与他们做出更公平和公正的决定。 它也可以用来真正解决我们社会中的不平等。 我们知道它们存在。 在政府政策中,如果政府使用人工智能系统,他们往往有很多关于使用这些服务最多的人的数据,这就是少数群体和穷人。 你掌握的关于一个群体的数据越多,你掌握的关于另一个群体(我们社会中最富裕的群体)的数据越少,就不太可能与这些政府服务部门互动,你就会出现不平衡,你就会做出不公平的决定。

那么,当我们与人打交道时,我们如何看待我们的政府政策作为一个整体? 我们如何评估是什么使他们最有可能重犯? 不太可能被批准保释或假释? 有些历史因素不公平地影响了这些决定。 同样,它不能只是修复数据,修复模型,它需要修复我们的过程。

很多时间都在谈论奇点,AI会来杀我们。 这确实分散了我们今天需要谈论的内容,这是缺乏公平。 我们在创造这些系统的人中没有足够的多样性。 我们对如何衡量人工智能及其决定对社会的影响没有足够的了解。

我们如何评估和知道,我们今天比昨天做得好吗? 很难测量一个负数。 你怎么知道,如果因为这些道德行为,你已经到位,你避免了一些伤害? 这些问题很难解决,但它们是我们今天必须处理的问题。 担心奇点,机器人来杀我们,确实分散了我们应该进行的对话。

了解智能城市、人工智能、物联网、VR、AR、机器人、无人机、自主驾驶等更多最黑科技创新。

标签:

上一篇
下一篇

最新文章