在伯明翰大学教授法律、伦理学和信息学的跨学科研究员Karen Yeung 认为:律师应该在确保先进数据和分析技术的安全性和可靠性方面发挥更重要的作用。
她说,当前关于“人工智能伦理”的观点更倾向于赞成行业自律,即相信科技行业可以做好自己的功课,但这本就是一个值得怀疑的假设。
“我们能发现政策制定者已经开始认真对待公众对人工智能表示出来的焦虑情绪,然而我更担心的是,这些讨论被极其狭隘的‘人工智能伦理’概念影响,在这样的理论架构内,法律和法律机构都被彻底地搁置到了一旁。”
Yeung呼吁“ 发展有效、合法的制度机制预防这些技术可能对人权造成的侵害 ,并关注集体和共享社会技术环境的健康,因为民主、人权和法制正是在这样的环境中得到了体现”。
她还认为人类社会需要果断地采取行动,因为与基因组编辑等其他技术的伦理领域不同的是,人工智能已经不可逆转地得到推行应用。“你不可能在自家后院编辑人类基因组,所以 有效的人类基因组编辑伦理管理主要依赖于相关机构的专业程度 。”
相比之下,人工智能主要由软件设计师和开发人员开发完成,他们中的很多人并没有经过正式的培训,更不用说职业道德方面的培训了:总之,秘密泄露了。