金博宝官网警务人工智能 - 用例,道德问题和趋势

Radhika Madhavan.
头像

Radhika Madhavan涵盖了Emerj的AI Innovation。Radhika以前在三种技术公司的内容营销中工作,毕业于斯里克里斯纳工程技术学院,具有信息技术的学位。

金博宝官网警务人工智能

2018年7月,Daniel Faggella在国际刑警组织 - 联合国(UNICRI)全球会议上关于人工情报和执法机器人的机会和风险。金博宝官网这是联合国和国际刑警组织在警务,安全和执法方面使用AI的第一次事件。

自从事件以来,丹尼尔并被呼吁其他联合国和国际刑警组织事件发生变异,因为EMERJ继续涵盖AI的应用程序防御和反恐。

当Unicri计划汇总报告时金博宝官网执法人工智能和机器人他们试图为对AI的近期申请感兴趣的警察领导者创造一个初名。丹尼尔和EMERJ团队帮助巧妙的使用情况部分,但完整的报告涵盖了各种各样的主题,值得考虑有兴趣的任何对执法和AI感兴趣的人。本文总结了报告的内容和Emerj在执法方面的现实世界AI使用案例的覆盖范围。

UNICRI报告和本文涉及以下一些重要问题:

  1. 将AI整合到执法方面有哪些好处?
  2. 法律执法如何预测和减轻AI和机器人的武器化?
  3. 执法如何成功实施现实世界中的AI和机器人的某些用例?
  4. 如何在隐私和安全之间的警务平衡中使用AI系统?
  5. 为什么在法律执法中明确地分类和强制执行A​​I的道德使用作为其他领域和行业的参考框架?

以下部分介绍了Unicri报告的主要观点综合摘要,并详细介绍了执法人员在执法中的申请,并将其与EMERJ的其他用例覆盖有关的参考。

AI应用程序和威胁的细分

该报告将执法人员的AI和机器人应用程序删除为四大类:预测和分析,认出,探索和通信 - 如下图所示:

interpol 1

图像来源:法律执法中的四类AI用例

(报告:执法人工智金博宝官网能和机器人)

该报告称,由于AI的一些限制,法律执行目前只关注狭隘的AI和半自动代理人,以增加执法官员。在下一节中详细讨论了可能被视为律法实施中AI益处的一些使用案例。

辩称,AI和机器人可以很好地武器,因为它可以善于努力,以便预防犯罪的警务良好,报告称“最近由14个机构(跨越学术界,民间社会和工业)的26名提交人的报告深入的问题并提出了许多可能使AI和机器人对执法有吸引力的相同功能(例如规模,速度,绩效,距离)可能使AI和机器人同样吸引犯罪分子和恐怖主义群体。“

本报告称,根据报告识别三个主要攻击域名:

  1. 数字攻击,如自动矛网络钓鱼,自动发现和对网络漏洞的开发。
  2. 政治攻击,例如假新闻或媒体的扩散,以产生混淆或冲突或面对交换和欺骗工具,以操纵视频和危害政治人物的信任甚至导致证据在法庭上受到质疑的有效性。
  3. 身体攻击,如面部识别武装无人机或无人驾驶走私违禁品。在数字攻击的背景下,报告进一步指出,可以使用AI来直接执行有害行为或通过中毒数据集来颠覆另一个AI系统。“

该报告警告说,尽管AI和机器人的武器化并未尽可能多地扩散社会,但未来几年将看到利用AI和机器人的使用,犯罪和恐怖主义的目的使用。

For instance, the report provides real-time malicious events in the past, such as the drones used to distribute a radioactive source to the Japanese Prime Minister’s office in Tokyo and drones used as unmanned aerial improvised explosive devices by the Islamic State of Iraq and the Levant (ISIL), etc.

为了打击这一潜在的刑事运行,该报告通过审慎在执行战略方面的战略方针和有意识的努力和资源方面为政管而建议执法行动。

AI 1200x200 @ 2x入门

机器人与AI在警务 - 用例探索

Emerj很荣幸能够帮助UNICRI与AI和机器人案例研究和执法中使用的应用程序的实时示例 - 但是对使用案例的分类框架来自报告的作者以及国际刑警组织的作者。

Unicri和Interpol用例图形

虽然有许多有用的“镜头”用于在执法中分析AI应用程序,但该报告使用上述相同的四个广泛类别,结合了申请相对成熟度的标准。以下是完整报告的示例图形:

Interpol 2.

图像来源:用例会话的结果

(报告:执法人工智金博宝官网能和机器人)

在未来两年内,我们希望看到更多的新型计算机视觉应用程序进入第一届世界警察部队的主流 - 以预测政策在高级资助国家资助的城市中发挥着越来越大的作用。采用的一些增加将归因于自然,缓慢升级IT工具 - 但其中一些采用将归因于能够建立具有更简单和直观的用户界面的启用AI供应商生态系统。

在EMERJ上的警务相关的AI用例覆盖范围

有关这些主题的详细探索,我们建议读者探讨以下主题更深入的使用案例探索:

争取道德平衡 - 隐私和安全

执法报告的AI和机器人公司指出,利用案例越来越扩大到增强的监督能力,涉及道德和人权的担忧不可避免地出现。

考虑到在执法中确定AI和机器人的伦理使用的几种哲学,背景和情境复杂性,该报告规定了四个基本特征来击打“安全与隐私之间的平衡:”

  • 公平:避免违约权利,如表达自由,纯真的推定等。
    • 例子:如果AI系统决定了男性(或特定种族的男性),更有可能是暴力犯罪的肇事者 - 如果考虑到潜在的肇事者跟进培训数据?
  • 问责制:男性和机器必须在机构和组织层面负责。
    • 例子:如果AI系统在不法控制中的助资,或者AI监控工具中的错误导致个人损失对无辜的个人来说 - 谁将对错误以及如何解决如何解决?将提出系统的创造者是否有权,这些算法负责的是对公众的某种方式 - 以及如何?
  • 透明度:AI系统采取的决策必须是透明的,而不是“黑匣子”。
    • 例子:如果AI系统指示警方以防他们应该巡逻的地方,以防止暴力犯罪 - 将对人类用户进行这些建议的基础(可能称重,以及它们的称重方式)是清楚的吗?
  • 解释性:AI系统所采取的决定必须是人类可以理解的。
    • 例子:如果AI系统标记某些通信渠道,那么高风险或值得调查,它可以铺设一条消息(或人)被标记的原因 - 但不是另一条消息?用户可以问“为什么” - 或促使机器的结论细分?

这些原则将在不同国家/地区解释不同。然而,对于几乎所有国家,似乎很可能随着AI的出现,基本上所有的监测模式都会得到改善 - 这种不可避免的波浪是每个个人社会都会抓住的东西。*

该报告提到了一些参与AI道德原则的发展中有一些较大的国际机构,包括:

  • “电气电子工程师协会(IEEE),曾向自治和智能系统(道德对齐设计)的道德发布全球论文,以将技术与道德价值观和道德原则保持一致......”(我们已经覆盖了IEEE的道德对齐设计工作以前的深入文章)。
  • “欧洲议会也有提出了咨询行为守则对于机器人工程师来指导伦理设计,生产和使用机器人,以及考虑机器人的法律地位,以确保某些权利和责任的法律框架。“

该报告的作者坚持认为,法律执行AI使用案件可以被视为重要的测试案例,可以为其他行业和组织的诉诸AI和机器人提供伦理使用的规范和机构,并且在这种相对新生的阶段值得考虑采用。

We’d like to give a special thanks to the folks at UNICRI and INTERPOL for creating a forum to explore AI in law enforcement, and for their efforts in compiling the original report (linked at the beginning of this document) that this article is based upon.

*有关此主题的进一步详细信息,这是一个播客AI伦理如何影响底线 - 概述实际问题,或观看丹尼尔的短youtube视频标题AI伦理:透明度,问责制和移动过去的美德信号

标题图像信用:CuInsight

保持领先于AI曲线

发现在业务未来将赢家分开获奖者的关键AI趋势和应用程序。

注册“AI Advantage”时事通讯:

" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Thanks - check your inbox for a confirmation email">
" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Error - There was some problem.">
订阅
订阅镜像
保持领先于机器学习曲线

加入超过20,000名以上的可调性的商业领袖,并收到每周提供的最新的AI研究和趋势。

感谢您订阅EMERJ“AI Advantage”时事通讯,请检查您的电子邮件收件箱进行确认。