0
收藏
微博
微信
复制链接

如何确保人工智能的道德问题是安全的?

2022-05-27 12:05
1147

自动化和机器技术(如人工智能和机器学习)的显着增长无疑为以组织带来了全新的规模和服务水平。
我们可能都期望人工智能的优势之一是有机会消除人为主导的偏见并改善对少数群体的歧视。然而,如果管理不善,人工智能可以通过在其算法中嵌入偏见来进一步强化歧视。
今天,机器通常会决定我们是否有资格获得抵押贷款或受到执法机构或寻求打击欺诈的保险公司的监视。他们的影响力甚至延伸到决定您在网上看到哪些广告——包括高薪职位的招聘广告。
有许多组织的自动化系统中的人工智能没有得到很好的记录或理解。是时候让自动化决策走出阴影并承担责任了。
当自动化决策直接或间接影响人们的生活,并且机器可能以有害的方式进行歧视时,企业组织必须站起来,注意并采取行动,以确保尽可能合乎道德地实施人工智能。
第一步
企业和政府组织都应该努力获得最高水平的保护,以免受他们部署的任何机器技术的伤害。在任何自动化项目开始时,组织必须进行法律、隐私和道德影响评估,以确认风险得到充分理解并且可以得到令人满意的缓解。这也确保选择最合适的解决方案来建立可接受的风险水平,同时提供价值。
这些评估的签署应由一个多学科的客观审查小组进行,该小组对项目的任何问题方面拥有否决权,包括部署方式、自动化水平和追索机会。部署必须是数据/技术团队和业务领导团队之间的协作过程,以在数据和分析中实施最佳实践道德规范。
部署
监察员报告中概述了有关设计和实施机器技术的良好做法的一些强有力的建议。尽管如此,我们认为所有组织都有义务至少考虑以下最佳实践:
公平、透明、非恶意、隐私、尊重自主权和问责制的伦理考虑要求任何实施任何机器技术的组织都必须确保其对所有受影响群体的执行达到最高水平的准确性;
有一种机制可以根据模型或系统的输出来解释任何决策;
有检测和减轻有害结果的流程
人们可以给予知情同意以参与该过程
有机制来质疑任何被认为是不公正的结果。
任何机器技术的开发和部署都应该是迭代的,首先是根据历史数据对准确性进行伦理审查,确保整个样本群体的性能保持一致。如果某些组的表现明显较差,则必须寻找更多数据以确保所有组的充分代表性。
在识别出有害后果的风险时,部署应该同样是迭代和谨慎的,从人在环解决方案开始,以确保在获得对模型或系统性能的信心的同时进行人工监督。
这并不是说人类的决策过程是万无一失的。它只是提供了一个在部署前了解和询问输出的机会。此过程应与最受信任的操作员一起完成,以减少将人为偏见重新引入该过程的可能性。此外,参与该过程的每个人都应该进行无意识的偏见培训。
一旦投入生产,任何机器技术的持续精度和性能都必须持续测量和监控。与现有 KPI 一起,该绩效应在整个组织中可报告和可见。
审查
任何实施算法决策的组织都需要有一个客观的伦理审查过程,包括定量和定性的考虑。应根据这些道德指标监控模型性能,以了解少数群体的性能异常以及性能随时间的任何变化。然后,作为运营过程的一部分,该模型可以持续进行调整和调整。
虽然实施似乎令人生畏,但组织必须在其人工智能和机器学习项目中提高对道德考虑的理解和实施。企业应采用“问题-审查-衡量-改进”的方法来管理其自动化决策的绩效和影响,以确保道德结果。
此文内容来自千家网,如涉及作品内容、版权和其它问题,请于联系工作人员,我们将在第一时间和您对接删除处理!

登录后查看更多
0
评论 0
收藏
侵权举报
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表凡亿课堂立场。文章及其配图仅供工程师学习之用,如有内容图片侵权或者其他问题,请联系本站作侵删。

热门评论0

相关文章

凡亿助教-小燕

专注电子设计,好文分享

开班信息