400-123-4657
对许多人来说,用于人工智能来预防犯罪和协助给罪犯定罪有可能看上去像科幻电影中的场景。然而,英国的警员部门—还包括达勒姆(Durham)、肯特(Kent)和南威尔士(SouthWales)—早已在用于面部辨识和不道德软件在确实的犯罪再次发生之前,就采行预防措施。计算机评估框架于是以被用作通报关押和量刑决策。
这项技术带给了极大的期望,可也完全具有同等程度的黑暗反乌托邦的前景。这引起了几个道德问题。例如,预测性警务往往依赖社区或警员巡逻队报告的犯罪记录,这有可能造成对系统循环并在早已获得严苛监管的社区中强化执法人员。
鉴于有报导称之为Met的自动面部辨识技术误报率为98%,因此对准确性也不存在忧虑。因此,我们必需小心警方资源被用作实际威胁,而不是被感官的威胁。我们都告诉,与人类一样,技术也不会犯错误,并且常常不会对有色人种和女性展现出出不公平的种族主义。
美国的风险评估算法,例如美国的替代性制裁警署罪犯管理资料(CorrectionalOffenderManagementProfilingforAlternativeSanctions,COMPAS)被找到间接所含反感的种族种族主义,这意味著黑人被告被错误分类的可能性完全是同等情况的白人的两倍。对于那些因为这些系统的大规模应用于而正处于有利地位的人来说,这某种程度是不道德的,也是不能拒绝接受的。面部辨识是其中一个低侵入性的方面。
在用于时,目标对象在不知情或予以表示同意的情况下就被摄取系统。例如,过去用作预测罪犯“典型”面孔的软件依赖社交媒体、关系、社交活动、学校日程安排以及来自数据经纪人的商业数据。与叫停和搜查等传统警务方法的官僚掌控比起,这些工具展开预测的方式以及警员部门用于这些系统的作法并不半透明。
最重要的是要保证将类似于的操作者规范划入机器中。另一个必须审查的领域是用于评估框架或算法展开量刑。
一些人工智能系统可以根据个人的历史和他们的损害偏向来预测未来的犯罪行为。在美国,宾夕法尼亚州有可能是最先一个不仅根据人们犯有的罪行作出刑事判决的州之一,量刑还要参照他们在未来犯有其他罪行的可能性。统计资料派生的风险评估——基于年龄、犯罪记录和低收入等因素——将协助法官确认裁决。
这一观点指出,这将有助减少监狱系统的成本和开销。由于支出紧绷和犯罪率大大下降,更加普遍地用于人工智能程序帮助预测犯罪行为有可能具备优势。然而,我们必需保证系统公平半透明,而现在我们依然可以做这一点。或许构建这一点最差的办法是创建一个监管人工智能的国际委员会,各个国家和消费者可以参予这些系统的发展,并保证不道德守则和法律超过国际人权标准规定的门槛。
将道德责任带入机器或许是一项艰难的任务,但这是解救这个勇气的新技术世界的唯一途径,使它不至于演变一种讽刺的梦魇。
本文来源:南宫NG·28-www.uhui0431.com