論文の概要: Responsible AI in criminal justice: LLMs in policing and risks to case progression
- arxiv url: http://arxiv.org/abs/2603.18116v1
- Date: Wed, 18 Mar 2026 15:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.778997
- Title: Responsible AI in criminal justice: LLMs in policing and risks to case progression
- Title(参考訳): 刑事司法における責任AI : 警察におけるLLMと事件進行のリスク
- Authors: Muffy Calder, Marion Oswald, Elizabeth McClory-Tiarks, Michele Sevegnani, Evdoxia Taka,
- Abstract要約: 警察におけるLLM(Large Language Models)の使用に対する関心が高まっているが、潜在的なリスクがある。
我々は,イングランドとウェールズの警察・法体系に根ざした,リスクの特定のための実践的アプローチを開発した。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is growing interest in the use of Large Language Models (LLMs) in policing, but there are potential risks. We have developed a practical approach to identifying risks, grounded in the policing and legal system of England and Wales. We identify 15 policing tasks that could be implemented using LLMs and 17 risks from their use, then illustrate with over 40 examples of impact on case progression. As good practice is agreed, many risks could be reduced. But this requires effort: we need to address these risks in a timely manner and define system wide impacts and benefits.
- Abstract(参考訳): 警察におけるLLM(Large Language Models)の使用に対する関心が高まっているが、潜在的なリスクがある。
我々は,イングランドとウェールズの警察・法体系に根ざした,リスクの特定のための実践的アプローチを開発した。
LLMを用いて実装可能な15の警察タスクと17のリスクを特定し、ケース進行への影響を40以上の例で示す。
良い練習が合意されるので、多くのリスクを削減できます。
これらのリスクをタイムリーに対処し、システム全体の影響とメリットを定義する必要があります。
関連論文リスト
- The Missing Half: Unveiling Training-time Implicit Safety Risks Beyond Deployment [148.80266237240713]
暗黙のトレーニング時間安全リスクは、モデルの内部インセンティブとコンテキスト背景情報によって引き起こされる。
5つのリスクレベル、10つのきめ細かいリスクカテゴリ、3つのインセンティブを持つ分類を導入した。
我々の結果は、過度に見過ごされているが、訓練における緊急の安全上の課題を特定します。
論文 参考訳(メタデータ) (2026-02-04T04:23:58Z) - Large Language Models' Complicit Responses to Illicit Instructions across Socio-Legal Contexts [54.15982476754607]
大規模言語モデル(LLM)が前例のない規模に展開され、毎日のタスクで数百万のユーザを支援している。
本研究は、複雑なファシリテーションを、不正なユーザ指示を可能にするガイダンスやサポートの提供として定義する。
実世界の訴訟と確立された法的枠組みを用いて、269件の違法なシナリオと50件の違法な意図にまたがる評価ベンチマークを構築した。
論文 参考訳(メタデータ) (2025-11-25T16:01:31Z) - Safety and Security Analysis of Large Language Models: Benchmarking Risk Profile and Harm Potential [0.1631115063641726]
本研究は,9大言語モデル(LLM)の実証分析とリスクプロファイルを提供する。
RSIはアジャイルでスケーラブルな評価スコアであり、セキュリティ姿勢を定量化し比較し、LLMのリスクプロファイルを作成する。
この研究は、テストされたLLMの安全性フィルタの広範な脆弱性を発見し、より強力なアライメント、責任あるデプロイメントプラクティス、モデルガバナンスの必要性を強調している。
論文 参考訳(メタデータ) (2025-09-12T19:34:10Z) - From nuclear safety to LLM security: Applying non-probabilistic risk management strategies to build safe and secure LLM-powered systems [49.1574468325115]
大型言語モデル(LLM)は、前例がなく成長する能力を提供するが、複雑な安全性とセキュリティの課題ももたらす。
以前の研究では、原子力や土木工学といった様々な工学分野におけるリスク管理は、一般的な(フィールドに依存しない)戦略によってしばしば解決されている。
ここでは、LSMによるシステムにおける新たなリスクが、リスク管理の非確率的戦略の100以上で満たされる可能性を示す。
論文 参考訳(メタデータ) (2025-05-20T16:07:41Z) - Nuclear Deployed: Analyzing Catastrophic Risks in Decision-making of Autonomous LLM Agents [10.565508277042564]
大規模言語モデル(LLM)は、自律的な意思決定者へと進化し、ハイステークシナリオにおける破滅的なリスクに対する懸念を高めている。
このようなリスクは,エージェントのHelpful,Harmlessness,Hoest(HHH)目標間のトレードオフから生じる可能性があるという知見に基づいて,新しい3段階評価フレームワークを構築した。
14,400個のエージェントシミュレーションを12個の先進LDMで行い、広範囲な実験と分析を行った。
論文 参考訳(メタデータ) (2025-02-17T02:11:17Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - Is Risk-Sensitive Reinforcement Learning Properly Resolved? [54.00107408956307]
本稿では,RSRL問題に対するポリシー改善のための新しいアルゴリズムであるトラジェクトリQ-Learning(TQL)を提案する。
新たな学習アーキテクチャに基づいて,さまざまなリスク対応政策を学習するための,さまざまなリスク対策の汎用的かつ実践的な実装を自由に導入できる。
論文 参考訳(メタデータ) (2023-07-02T11:47:21Z) - Opportunities and Risks of LLMs for Scalable Deliberation with Polis [7.211025984598187]
Polisは、マシンインテリジェンスを活用して、熟考プロセスをスケールアップするプラットフォームである。
本稿では,Large Language Models (LLMs) をポリスエンゲージメントの結果の促進,調整,要約といった課題に適用する機会とリスクについて考察する。
論文 参考訳(メタデータ) (2023-06-20T22:52:51Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。