論文の概要: "Part Man, Part Machine, All Cop": Automation in Policing
- arxiv url: http://arxiv.org/abs/2106.12794v1
- Date: Thu, 24 Jun 2021 07:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 16:19:33.502188
- Title: "Part Man, Part Machine, All Cop": Automation in Policing
- Title(参考訳): 『パートマン、パートマシン、オールコップ』:警察における自動化
- Authors: Angelika Adensamer and Lukas Daniel Klausner
- Abstract要約: 本稿では、警察の自動化と法制度に関する現代問題について概観する。
労働者の権利と組織的責任と、基本的権利と効果的な救済の権利の両方に焦点をあてる議論の視点を変えることを主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digitisation, automation and datafication permeate policing and justice more
and more each year -- from predictive policing methods through recidivism
prediction to automated biometric identification at the border. The
sociotechnical issues surrounding the use of such systems raise questions and
reveal problems, both old and new. Our article reviews contemporary issues
surrounding automation in policing and the legal system, finds common issues
and themes in various different examples, introduces the distinction between
human "retail bias" and algorithmic "wholesale bias", and argues for shifting
the viewpoint on the debate to focus on both workers' rights and organisational
responsibility as well as fundamental rights and the right to an effective
remedy.
- Abstract(参考訳): デジタル化、自動化、データフィケーションは、リシディズム予測から国境における自動生体認証まで、毎年ますます、警察と司法を浸透させています。
このようなシステムの使用に関する社会技術的問題は、疑問を提起し、旧来と新来の両方の問題を明らかにする。
本稿では,警察と法制度の自動化に関する現代的課題をレビューし,様々な事例で共通する問題やテーマを見いだし,人間の「詳細なバイアス」とアルゴリズムによる「誰のバイアス」を区別し,労働者の権利と組織的責任,そして基本的権利と効果的な治療の権利に焦点をあてる議論の視点を移すことを論じる。
関連論文リスト
- Evidence of What, for Whom? The Socially Contested Role of Algorithmic Bias in a Predictive Policing Tool [0.9821874476902969]
異なるグループの利害関係者が,ツールのアルゴリズムバイアスの多様な問題診断を明確化することを示す。
利害関係者は、警察パトロールアロケーションに関する政策を改定するためにアルゴリズムバイアスの証拠を利用する。
アルゴリズムバイアスの様々な利用の暗黙の仮定と範囲を証拠とみなす。
論文 参考訳(メタデータ) (2024-05-13T13:03:33Z) - Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector [0.0]
多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
論文 参考訳(メタデータ) (2024-03-20T14:20:42Z) - A Multi-Perspective Machine Learning Approach to Evaluate Police-Driver
Interaction in Los Angeles [18.379058918856717]
州内で最も目に見えて接触した警察官は、交通停止中に年間2000万回以上、市民と交流している。
ボディウーンカメラ(BWC)は、警察の説明責任を高め、警察と公共の相互作用を改善する手段として用いられる。
本稿では、このBWC映像から音声、ビデオ、および転写情報を分析するために、新しいマルチパースペクティブ・マルチモーダル機械学習(ML)ツールを開発するためのアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-24T19:56:20Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - AI Alignment: A Comprehensive Survey [70.35693485015659]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - The Glass Ceiling of Automatic Evaluation in Natural Language Generation [60.59732704936083]
ステップバックして、既存の自動メトリクスと人的メトリクスのボディを比較して、最近の進歩を分析します。
古いものや新しいものといった自動メトリクスは、人間よりもずっと似ています。
論文 参考訳(メタデータ) (2022-08-31T01:13:46Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z) - Demographic Bias in Biometrics: A Survey on an Emerging Challenge [0.0]
生体計測システムは、人間の特定の生物学的または法医学的特性の特異性に依存している。
自動意思決定システムにおける体系的バイアスの存在に関して、公共および学術的な懸念の波が相次いだ。
論文 参考訳(メタデータ) (2020-03-05T09:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。