目前有许多解决方案可供选择(例如,隐私增强技术、鲁棒性测试、对抗性和反事实测试),但我们了解得越多,关于每种方案的优缺点、风险和挑战的问题就越多。
如何评估、监重大挑战。我们需要新的、更少偏见、更具代表性的基准来进行质量建模。合成数据可以提供帮助,但其能力和适用性仍存在疑问。故障的可解释性和可靠的部署后监控对于促进公平、准确和稳健的人工智能至关重要。
创建成熟的 RAI 文化需要与安全、隐私或可访问性类似的承诺和资源。这些资源包括全面的员工教育和授权、评估和文档工具及资源的获取、遍布整个组织的拥护者、健全的激励机制以及一致且可扩展的审计流程。我们需要进一步了解的一个工具是道德咨询委员会,因为使用它们的组织很少分享相关经验。
需要公私合作来制定标准和法规。为了实现有意义且严谨的 RAI 实践,我们需要在多样性、公平性和 手机号数据库列表 包容性方面进行认真的投资,而不是仅仅停留在口头上。我们必须采取社会技术方法来制定标准、实践和法规。
背景
这场时长3.5小时的CRAFT会议由Salesforce道德人工智能首席架构师Kathy Baxter和Cantellus集团顾问兼高级经理Chloe Autio组织并主持。16位专家分享了他们对人工智能领域新兴挑战的见解。来自16家私营企业、17所大学、2个政府机构和2个非营利组织的24位参会者和3位纪录片制作人参与了讨论。
主题
悖论比比皆是,但解决方案也同样如此
许多负责任的人工智能概念之间存在着矛盾(例如,可解释性与可解读性、透明度与隐私性、公平性与意识)。例如,可解释性和可解读性是信任的基础,但并非每个参与者都怀有善意;更高的可解释性有时可能会损害安全性,因为不良行为者可能会学习如何利用系统。