論文の概要: Unpacking the Black Box: Regulating Algorithmic Decisions
- arxiv url: http://arxiv.org/abs/2110.03443v1
- Date: Tue, 5 Oct 2021 23:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:11:57.059261
- Title: Unpacking the Black Box: Regulating Algorithmic Decisions
- Title(参考訳): ブラックボックスの解凍:アルゴリズム決定の規制
- Authors: Laura Blattner, Scott Nelson, Jann Spiess
- Abstract要約: エージェントが複雑な予測関数を設計するが、プリンシパルは予測関数について学べる情報量に制限がある世界において、最適なアルゴリズムの監視を特徴付ける。
本研究は,主観と主観的選好の不一致による偏見が,世界の真の状態に関する不確実性に対して小さい限り,完全透明であるほど単純である予測関数に対する限定エージェントは非効率であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We characterize optimal oversight of algorithms in a world where an agent
designs a complex prediction function but a principal is limited in the amount
of information she can learn about the prediction function. We show that
limiting agents to prediction functions that are simple enough to be fully
transparent is inefficient as long as the bias induced by misalignment between
principal's and agent's preferences is small relative to the uncertainty about
the true state of the world. Algorithmic audits can improve welfare, but the
gains depend on the design of the audit tools. Tools that focus on minimizing
overall information loss, the focus of many post-hoc explainer tools, will
generally be inefficient since they focus on explaining the average behavior of
the prediction function rather than sources of mis-prediction, which matter for
welfare-relevant outcomes. Targeted tools that focus on the source of incentive
misalignment, e.g., excess false positives or racial disparities, can provide
first-best solutions. We provide empirical support for our theoretical findings
using an application in consumer lending.
- Abstract(参考訳): エージェントが複雑な予測関数を設計するが、プリンシパルは予測関数について学べる情報量に制限がある世界において、最適なアルゴリズムの監視を特徴付ける。
本研究は,主観と主観的選好の不一致による偏見が,世界の真の状態に関する不確実性に対して小さい限り,完全透明であるほど単純である予測関数に対するエージェントの制限は非効率であることを示す。
アルゴリズムによる監査は福祉を改善するが、その利益は監査ツールの設計に依存する。
多くのポストホックな説明ツールの焦点である、全体的な情報損失を最小化することに注力するツールは、福祉関連の結果である誤った予測源ではなく、予測関数の平均的な振る舞いを説明することに重点を置いているため、一般的に非効率である。
過度な偽陽性や人種格差といったインセンティブの不一致の源泉に焦点を絞ったツールは、最優先の解決策を提供することができる。
消費者貸出の応用による理論的知見の実証的支援を行う。
関連論文リスト
- Tuning Language Models by Proxy [117.08206725096036]
プロキシチューニングは、ブラックボックスLM上で動作する軽量な復号時間アルゴリズムである。
我々の研究は、小さく調整されたLMを使用して、大規模で潜在的にプロプライエタリなLMを効率的にカスタマイズする可能性を実証している。
論文 参考訳(メタデータ) (2024-01-16T18:49:55Z) - Should All Proposals be Treated Equally in Object Detection? [110.27485090952385]
オブジェクト検出器の複雑さと精度のトレードオフは、リソース制約されたビジョンタスクにとって重要な問題である。
検出効率の改善には、提案の不平等な処理に向けて、パラダイムシフトが必要であると仮定されている。
これにより、利用可能な計算予算がより有効になり、同じFLOPSの精度が向上する。
論文 参考訳(メタデータ) (2022-07-07T18:26:32Z) - Interpretable by Design: Learning Predictors by Composing Interpretable
Queries [8.054701719767293]
機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2022-07-03T02:40:34Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring [4.370097023410272]
本稿では,信用スコアリングモデルを理解しやすくするために考慮すべきさまざまな次元について検討する。
本稿では,クレジットスコアにどのように適用できるか,そしてスコアカードの解釈可能性と比較する方法について概説する。
論文 参考訳(メタデータ) (2020-09-28T15:00:13Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。