人工智能商业时代即将来临。新冠大流行加速了许多公司对快速数字化和利用人工智能增强其业务流程的需求。但是,新技术也带来了新的责任。
这项针对100位C级数据和分析高管的全球调查揭示了专注于人工智能的高管们正在考虑和解决的复杂问题,以帮助他们的组织能够以道德的方式实现人工智能。
调查发现强调了人工智能道德问题的真实程度。专注于人工智能的高管们可能会更加关注人工智能道德方面的问题。但对于企业在使用人工智能时所应承担的责任方面游戏开发中的人工智能 pdf橙光游戏,目前还没有达成共识。
报告还探讨了企业在开发过程中如何有效地克服人工智能模型偏差。
很少有企业有这样的“设计伦理”方法,可以确保他们纠正人工智能定期测试中的偏差。
报告建议那些希望确保企业负责任地使用人工智能的高管们:
了解与人工智能相关的风险
开发更好的实践以确保合规性
更加重视持续的模型监控和维护
主要发现:
65%的公司无法解释具体的 AI 模型决策或预测是如何实现的。只有 35% 的受访者以透明的方式使用AI并真正负起责任。
22% 的受访者表示3D植物,他们的企业设有 AI 道德委员会。78% 的企业无法确保正确考虑使用新 AI 系统的道德影响
78% 的受访者发现优先考虑负责人的AI实践很难获得高管的支持。这表明对不负责任的AI使用所带来的风险缺乏认识。
77% 的受访者认为 AutoML 技术可能会被滥用。
90% 的高管同意模型监控的低效流程是其企业采用 AI 的障碍。
PDF版本将会分享到199IT高端交流群游戏开发中的人工智能 pdf,感谢您的支持!
199IT热门报告重点推荐,可直接点击查阅
| NOTICE |
微信公众平台目前已经推出订阅号置顶功能
点击我们的主页
将置顶公众号勾选
及时捕获精彩内容
媒体商务合作