論文の概要: Unpacking the Black Box: Regulating Algorithmic Decisions
- arxiv url: http://arxiv.org/abs/2110.03443v2
- Date: Fri, 14 Jul 2023 17:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 17:49:07.247204
- Title: Unpacking the Black Box: Regulating Algorithmic Decisions
- Title(参考訳): ブラックボックスの解凍:アルゴリズム決定の規制
- Authors: Laura Blattner, Scott Nelson, Jann Spiess
- Abstract要約: エージェントが複雑な「ブラックボックス」予測関数を使用する世界において、予測アルゴリズムを最適に制御する方法を示す。
完全透明にできるほど単純である予測関数に限定するエージェントは、ミスアライメントが限定されている限り非効率であることを示す。
- 参考スコア(独自算出の注目度): 4.511923587827301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how to optimally regulate prediction algorithms in a world where an
agent uses complex 'black-box' prediction functions to make decisions such as
lending, medical testing, or hiring, and where a principal is limited in how
much she can learn about the agent's black-box model. We show that limiting
agents to prediction functions that are simple enough to be fully transparent
is inefficient as long as the misalignment is limited and first-best prediction
functions are sufficiently complex. Algorithmic audits can improve welfare, but
the gains depend on the design of the audit tools. Tools that focus on
minimizing overall information loss, the focus of many explainer tools, will
generally be inefficient since they focus on explaining the average behavior of
the prediction function. Targeted tools that focus on the source of incentive
misalignment, e.g., excess false positives or racial disparities, can provide
second-best solutions. We provide empirical support for our theoretical
findings using an application in consumer lending, where we document that
complex models regulated based on context-specific explanation tools outperform
simple, fully transparent models. This gain from complex models represents a
Pareto improvement across our empirical applications that are preferred both by
the lender and from the perspective of the financial regulator.
- Abstract(参考訳): エージェントが複雑な「ブラックボックス」予測関数を使用して融資、医療試験、雇用などの意思決定を行い、エージェントのブラックボックスモデルについて学べる程度にプリンシパルが制限される世界において、予測アルゴリズムを最適に制御する方法を示す。
完全透明となるほど単純である予測関数に対する制限因子は、ミスアライメントが制限され、第1のベスト予測関数が十分複雑である限り、非効率であることを示す。
アルゴリズムによる監査は福祉を改善するが、その利益は監査ツールの設計に依存する。
多くの説明ツールの焦点である情報損失の最小化に注力するツールは、予測関数の平均的な振る舞いを説明することに集中するため、一般的に非効率である。
過度な偽陽性や人種格差といったインセンティブの不一致の源泉に焦点を絞ったツールは、第2のベストソリューションを提供することができる。
我々は,消費者貸付の応用を用いて理論的知見を実証的に支援し,コンテキスト固有の説明ツールに基づく複雑なモデルが,単純で完全透明なモデルよりも優れていることを示す。
複雑なモデルから得られるこの利益は、銀行や金融規制当局の観点からも好ましい経験的応用におけるParetoの改善を表している。
関連論文リスト
- Tuning Language Models by Proxy [117.08206725096036]
プロキシチューニングは、ブラックボックスLM上で動作する軽量な復号時間アルゴリズムである。
我々の研究は、小さく調整されたLMを使用して、大規模で潜在的にプロプライエタリなLMを効率的にカスタマイズする可能性を実証している。
論文 参考訳(メタデータ) (2024-01-16T18:49:55Z) - Should All Proposals be Treated Equally in Object Detection? [110.27485090952385]
オブジェクト検出器の複雑さと精度のトレードオフは、リソース制約されたビジョンタスクにとって重要な問題である。
検出効率の改善には、提案の不平等な処理に向けて、パラダイムシフトが必要であると仮定されている。
これにより、利用可能な計算予算がより有効になり、同じFLOPSの精度が向上する。
論文 参考訳(メタデータ) (2022-07-07T18:26:32Z) - Interpretable by Design: Learning Predictors by Composing Interpretable
Queries [8.054701719767293]
機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2022-07-03T02:40:34Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring [4.370097023410272]
本稿では,信用スコアリングモデルを理解しやすくするために考慮すべきさまざまな次元について検討する。
本稿では,クレジットスコアにどのように適用できるか,そしてスコアカードの解釈可能性と比較する方法について概説する。
論文 参考訳(メタデータ) (2020-09-28T15:00:13Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。