論文の概要: Towards User-Centred Design of AI-Assisted Decision-Making in Law Enforcement
- arxiv url: http://arxiv.org/abs/2504.17393v1
- Date: Thu, 24 Apr 2025 09:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.312835
- Title: Towards User-Centred Design of AI-Assisted Decision-Making in Law Enforcement
- Title(参考訳): 法執行におけるAI支援意思決定のユーザ中心設計に向けて
- Authors: Vesna Nowack, Dalal Alrajeh, Carolina Gutierrez Muñoz, Katie Thomas, William Hobson, Catherine Hamilton-Giachritsis, Patrick Benjamin, Tim Grant, Juliane A. Kloess, Jessica Woodhams,
- Abstract要約: 法執行機関におけるAI支援システムのユーザ要件は、まだ不明である。
本研究の参加者は,大量のデータを効率的に処理・分析できるシステムの必要性を強調した。
法執行ドメインの動的で複雑な性質のため、システムが完全な自動化を達成する可能性は極めて低い、と私たちは主張する。
- 参考スコア(独自算出の注目度): 1.1890528509539204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has become an important part of our everyday lives, yet user requirements for designing AI-assisted systems in law enforcement remain unclear. To address this gap, we conducted qualitative research on decision-making within a law enforcement agency. Our study aimed to identify limitations of existing practices, explore user requirements and understand the responsibilities that humans expect to undertake in these systems. Participants in our study highlighted the need for a system capable of processing and analysing large volumes of data efficiently to help in crime detection and prevention. Additionally, the system should satisfy requirements for scalability, accuracy, justification, trustworthiness and adaptability to be adopted in this domain. Participants also emphasised the importance of having end users review the input data that might be challenging for AI to interpret, and validate the generated output to ensure the system's accuracy. To keep up with the evolving nature of the law enforcement domain, end users need to help the system adapt to the changes in criminal behaviour and government guidance, and technical experts need to regularly oversee and monitor the system. Furthermore, user-friendly human interaction with the system is essential for its adoption and some of the participants confirmed they would be happy to be in the loop and provide necessary feedback that the system can learn from. Finally, we argue that it is very unlikely that the system will ever achieve full automation due to the dynamic and complex nature of the law enforcement domain.
- Abstract(参考訳): 人工知能(AI)は、私たちの日常生活において重要な部分となっているが、法執行機関におけるAI支援システムを設計するためのユーザー要求は、まだ明確ではない。
このギャップに対処するため,法執行機関内で意思決定に関する質的研究を行った。
本研究の目的は,既存のプラクティスの限界を特定し,ユーザの要求を探求し,人間がこれらのシステムで行おうとする責務を理解することである。
本研究の参加者は,犯罪検出・防止に有効な大量のデータを効率的に処理・分析できるシステムの必要性を強調した。
さらに、システムは、このドメインで採用されるスケーラビリティ、正確性、正当化、信頼性、適応性の要件を満たす必要がある。
参加者はまた、AIが解釈するのは難しい可能性のある入力データをエンドユーザがレビューし、生成した出力を検証してシステムの正確性を保証することの重要性を強調した。
法執行領域の進化する性質に追従するためには、エンドユーザーは犯罪行為や政府のガイダンスの変化にシステムが適応するのを助ける必要があり、技術専門家は定期的にシステムの監視と監視を行う必要がある。
さらに、システムへのユーザフレンドリなヒューマンインタラクションは採用に不可欠であり、一部の参加者はループに参加して、システムから学ぶことのできる必要なフィードバックを提供することを喜んでいると確認した。
最後に、法執行ドメインの動的で複雑な性質のため、システムが完全な自動化を達成する可能性は極めて低いと論じる。
関連論文リスト
- Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Human-centred test and evaluation of military AI [0.0]
REAIM 2024 Blueprint for Actionは、軍事領域におけるAIアプリケーションは倫理的かつ人間中心であるべきだと述べている。
AIシステムの開発と展開におけるTEVVは、ライフサイクルを通して人間のユーザを巻き込む必要がある。
従来の人間中心のテストと評価方法は、デプロイされたAIシステムに適応する必要がある。
論文 参考訳(メタデータ) (2024-12-02T21:14:55Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation [14.704747149179047]
計算プロバイダは、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と我々は主張する。
コンピューティングプロバイダは,4つの重要な能力を通じて,規制エコシステムにおいて重要な役割を果たすことができます。
論文 参考訳(メタデータ) (2024-03-13T13:08:16Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Identifying Roles, Requirements and Responsibilities in Trustworthy AI
Systems [2.28438857884398]
我々は、ドメインの実践者の視点からAIシステムを検討し、システムデプロイメントに関与する重要な役割を特定します。
各役割の異なる要件と責任を考慮し、対処すべき透明性とプライバシの緊張関係を特定します。
論文 参考訳(メタデータ) (2021-06-15T16:05:10Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。