論文の概要: Adversarial Scrutiny of Evidentiary Statistical Software
- arxiv url: http://arxiv.org/abs/2206.09305v1
- Date: Sun, 19 Jun 2022 02:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 00:25:39.485263
- Title: Adversarial Scrutiny of Evidentiary Statistical Software
- Title(参考訳): 顕在的統計ソフトの敵意調査
- Authors: Rediet Abebe, Moritz Hardt, Angela Jin, John Miller, Ludwig Schmidt,
Rebecca Wexler
- Abstract要約: 米国の刑事法体系はますます、人を有罪にし、投獄するためにソフトウェア出力に依存している。
本稿では,前向きな統計的ソフトウェアの有効性を検証するための監査フレームワークとして,頑健な敵検定を提案する。
- 参考スコア(独自算出の注目度): 32.962815960406196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The U.S. criminal legal system increasingly relies on software output to
convict and incarcerate people. In a large number of cases each year, the
government makes these consequential decisions based on evidence from
statistical software -- such as probabilistic genotyping, environmental audio
detection, and toolmark analysis tools -- that defense counsel cannot fully
cross-examine or scrutinize. This undermines the commitments of the adversarial
criminal legal system, which relies on the defense's ability to probe and test
the prosecution's case to safeguard individual rights.
Responding to this need to adversarially scrutinize output from such
software, we propose robust adversarial testing as an audit framework to
examine the validity of evidentiary statistical software. We define and
operationalize this notion of robust adversarial testing for defense use by
drawing on a large body of recent work in robust machine learning and
algorithmic fairness. We demonstrate how this framework both standardizes the
process for scrutinizing such tools and empowers defense lawyers to examine
their validity for instances most relevant to the case at hand. We further
discuss existing structural and institutional challenges within the U.S.
criminal legal system that may create barriers for implementing this and other
such audit frameworks and close with a discussion on policy changes that could
help address these concerns.
- Abstract(参考訳): 米国の刑事法体系は、ますます、人を有罪とし、投獄するためにソフトウェア出力に依存している。
毎年、多くのケースで、政府は、確率的遺伝子型付け、環境オーディオ検出、ツールマーク分析ツールなどの統計ソフトウェアからの証拠に基づいて、弁護人が完全に横断的または精査できないという一連の決定を下している。
これは、被告が個人の権利を保護するために検察の事件を捜査し、試験する能力に依存する、敵対的な刑事法制度のコミットメントを損なう。
このようなソフトウェアからのアウトプットを敵対的に精査する必要性に対応して、実証統計ソフトウェアの有効性を検証するための監査フレームワークとして、ロバストな逆テストを提案する。
我々は、ロバストな機械学習とアルゴリズムの公平性に関する最近の研究の多くを描いて、防衛利用のためのロバストな敵対的テストの概念を定義し、運用する。
この枠組みは,これらのツールを精査するプロセスを標準化し,被告弁護士に対して,事件に最も関係のある事例に対する妥当性を検討するよう促すものである。
さらに、米国刑事法制度における既存の構造的・制度的課題について論じ、これや他の監査枠組みの実施の障壁を生じさせ、これらの懸念に対処するための政策変更に関する議論を締めくくる。
関連論文リスト
- A Framework for Assurance Audits of Algorithmic Systems [2.367447006657134]
ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Prototype-Based Interpretability for Legal Citation Prediction [16.660004925391842]
我々は、前例と立法規定の両方に関して、弁護士の思考過程と平行してタスクを設計する。
最初の実験結果から,法の専門家のフィードバックを得て,対象の引用予測を洗練する。
我々は,弁護士が使用する決定パラメータに固執しながら,高い性能を達成し,解釈可能性を高めるためのプロトタイプアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-05-25T21:40:58Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Unfooling Perturbation-Based Post Hoc Explainers [12.599362066650842]
最近の研究は、摂動に基づくポストホックの説明を逆さまに騙すことが実証されている。
この発見は監査人、規制当局、その他のセンチネルに悪影響を及ぼす。
本研究では,この問題を厳格に定式化し,摂動型説明器に対する敵攻撃に対する防御策を考案する。
論文 参考訳(メタデータ) (2022-05-29T21:28:12Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Towards Increasing Trust In Expert Evidence Derived From Malware
Forensic Tools [0.0]
法科学レギュレータの職は2008年に創設された。
これを達成するために展開された重要な戦略の1つは、法医学の様々な分野において、より高度な科学的行為を取り入れようとしていることである。
現在、イングランドとウェールズの刑事司法制度を継続するために、実践者が認定される法的な要件は存在しない。
法科学レギュレータは、英国政府にこれを義務付けるようロビー活動を行っている。
論文 参考訳(メタデータ) (2020-10-14T16:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。