論文の概要: Adversarial Scrutiny of Evidentiary Statistical Software
- arxiv url: http://arxiv.org/abs/2206.09305v2
- Date: Fri, 30 Sep 2022 21:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:51:31.650086
- Title: Adversarial Scrutiny of Evidentiary Statistical Software
- Title(参考訳): 顕在的統計ソフトの敵意調査
- Authors: Rediet Abebe, Moritz Hardt, Angela Jin, John Miller, Ludwig Schmidt,
Rebecca Wexler
- Abstract要約: 米国の刑事法体系はますます、人を有罪にし、投獄するためにソフトウェア出力に依存している。
本稿では,前向きな統計的ソフトウェアの有効性を検証するための監査フレームワークとして,頑健な敵検定を提案する。
- 参考スコア(独自算出の注目度): 32.962815960406196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The U.S. criminal legal system increasingly relies on software output to
convict and incarcerate people. In a large number of cases each year, the
government makes these consequential decisions based on evidence from
statistical software -- such as probabilistic genotyping, environmental audio
detection, and toolmark analysis tools -- that defense counsel cannot fully
cross-examine or scrutinize. This undermines the commitments of the adversarial
criminal legal system, which relies on the defense's ability to probe and test
the prosecution's case to safeguard individual rights.
Responding to this need to adversarially scrutinize output from such
software, we propose robust adversarial testing as an audit framework to
examine the validity of evidentiary statistical software. We define and
operationalize this notion of robust adversarial testing for defense use by
drawing on a large body of recent work in robust machine learning and
algorithmic fairness. We demonstrate how this framework both standardizes the
process for scrutinizing such tools and empowers defense lawyers to examine
their validity for instances most relevant to the case at hand. We further
discuss existing structural and institutional challenges within the U.S.
criminal legal system that may create barriers for implementing this and other
such audit frameworks and close with a discussion on policy changes that could
help address these concerns.
- Abstract(参考訳): 米国の刑事法体系は、ますます、人を有罪とし、投獄するためにソフトウェア出力に依存している。
毎年、多くのケースで、政府は、確率的遺伝子型付け、環境オーディオ検出、ツールマーク分析ツールなどの統計ソフトウェアからの証拠に基づいて、弁護人が完全に横断的または精査できないという一連の決定を下している。
これは、被告が個人の権利を保護するために検察の事件を捜査し、試験する能力に依存する、敵対的な刑事法制度のコミットメントを損なう。
このようなソフトウェアからのアウトプットを敵対的に精査する必要性に対応して、実証統計ソフトウェアの有効性を検証するための監査フレームワークとして、ロバストな逆テストを提案する。
我々は、ロバストな機械学習とアルゴリズムの公平性に関する最近の研究の多くを描いて、防衛利用のためのロバストな敵対的テストの概念を定義し、運用する。
この枠組みは,これらのツールを精査するプロセスを標準化し,被告弁護士に対して,事件に最も関係のある事例に対する妥当性を検討するよう促すものである。
さらに、米国刑事法制度における既存の構造的・制度的課題について論じ、これや他の監査枠組みの実施の障壁を生じさせ、これらの懸念に対処するための政策変更に関する議論を締めくくる。
関連論文リスト
- From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - Metamorphic Debugging for Accountable Software [8.001739956625483]
法律書を正式な仕様に翻訳することは、一つの課題である。
クエリ(オラクル問題)に対する決定的な'真実'の欠如も問題である。
我々は,これらの課題に,関係仕様に焦点を合わせることで対処できることを提案する。
論文 参考訳(メタデータ) (2024-09-24T14:45:13Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - (Beyond) Reasonable Doubt: Challenges that Public Defenders Face in Scrutinizing AI in Court [7.742399489996169]
我々は,公務員が法廷でどのようにAIを精査するかを研究することによって,実際にAIシステムに挑戦する努力を研究する。
我々は,米国公共防衛コミュニティの17人のインタビューから得られた知見を報告する。
論文 参考訳(メタデータ) (2024-03-13T23:19:46Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。