人工智能安全系统 一把效能与伦理的双刃剑

环球网

  【环球网智能 记者龙殇】随着科学技术的进步,国家执法部门和安全部门也在不断引入新的智能技术,以更好的抵制不断演变的恐怖主义威胁和高科技犯罪威胁。

  支持智能技术的大数据分析和人工智能(AI)的全部潜力被合理利用是由两个关键考虑因素决定的。首先,社会研究表明,全新的技术被采纳不仅是为了更有效地继续当前的业务实践。更重要的是,它还需要不断的重新评估这些实践结果,以便在不断变化的需求面前保持弹性。其次,是否采纳一项全新的技术,不仅仅需要从业务决策和技术需求层面考虑,还需要从伦理道德层面分析思考,这是一个多方面的过程。

  支持执法的私人保安部门采用智能技术(如闭路电视巡逻系统和无人驾驶飞机),以保护公共场所和大型活动。通过自动化来克服巡逻中的人为限制,以便更好地发现潜在威胁。技术引进的第一步是通过成本和生产力改进,使当前的业务实践更有效率。

  相关执法部门采用最新的智能技术,如闭路电视巡逻系统或无人机技术,以保障公共场所安全,维持大型活动秩序,通过自动化技术来克服巡逻中的人为限制,以便更好地发现潜在威胁。新技术的引入首先能降低成本、改进生产力,从而进一步提高业务实践的效率。

  为此,相关执法部门将随着智能技术的发展发挥更多的能力,在恐怖袭击发生前迅速获取相关信息,及时进行情报分析,减少监控盲点,加强跨部门信息共享,全面降低违法行为风险。目前,各大商场正在逐步引进与公安系统联网的安全系统产品。

  然而,这一安全系统引发了重要的伦理问题:这一系统主要是利用人工智能进行威胁预测和可以分析,这将会引起所谓的“自动歧视”,即采写、收录相关基础大数据的工作人员的主观偏见,这可能会引起社会某些阶层的关注。

  “自动歧视”是新生的词汇,需要加以正面的引导。随着闭路电视巡逻系统的增加普及,这一问题的重要性将会增长。它可能会引起人们对守法人士的错误目标的恐惧,从而影响公众对执法部门和国家的信任和信任。这不仅仅是一个政策挑战,它与算法和大数据中的非预期偏差的技术问题相交叉,可能导致人工智能系统产生的分析偏斜。算法是计算机程序,它精确地告诉计算机要采取什么步骤来解决某些问题。

  受限于编写此人工智能算法的程序员主观反映,人工智能算法偏差问题可能会导致人工智能监视系统发布诸多虚假警报的风险,甚至因此误导了执法部门的情报分析,错误的逮捕了不应被警方关注的人。例如,有媒体报道了由广州云从科技研发的一款人工智能系统,根据计算一个人的脸部特征和行为举止,来判断此人是否具有社会威胁性,进一步提示警方采取先发制人的行动,组织犯罪行为的发生。这一系统受到大量道德层面的谴责,部分人士认为,紧靠面部特征来判断一个人是否有犯罪倾向,是非常不合伦理的,它可能在不知不觉间含有人类对种族、地域的伦理偏见。此前便有人工智能分析系统向芝加哥警方发布带有种族歧视色彩的预警报告的案例。

  从本质上说,有研究表明,人工智能系统既是复杂的算法,也仅仅是系统训练和工作数据的简单收集。因此,这些系统可能产生更多带有“自动歧视”色彩的分析结果,并将这一类数据训练不断加强深化,从而导致在某些地域产生警民关系紧张的结果。

  总之,新兴的人工智能技术在增加监控的前提下能够有效的收集情报,并将其充分分析,更好的阻止安全威胁事件的发生,但也可能因此产生严重的“自动歧视”的伦理问题。为了使人工智能安全系统发挥应有的作用,加强监视和构建伦理之间必须有一个可以被广泛接受的平衡。如果在采用人工智能技术的过程中包含了日后数据收集训练的方向,那么可能会减少假警报的风险,也可以在人工智能驱动的决策中的充分体现其公平性,以最大幅度减少其可能对社会产生的负面影响。