論文の概要: Unpacking the Black Box: Regulating Algorithmic Decisions
- arxiv url: http://arxiv.org/abs/2110.03443v1
- Date: Tue, 5 Oct 2021 23:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:11:57.059261
- Title: Unpacking the Black Box: Regulating Algorithmic Decisions
- Title(参考訳): ブラックボックスの解凍:アルゴリズム決定の規制
- Authors: Laura Blattner, Scott Nelson, Jann Spiess
- Abstract要約: エージェントが複雑な予測関数を設計するが、プリンシパルは予測関数について学べる情報量に制限がある世界において、最適なアルゴリズムの監視を特徴付ける。
本研究は,主観と主観的選好の不一致による偏見が,世界の真の状態に関する不確実性に対して小さい限り,完全透明であるほど単純である予測関数に対する限定エージェントは非効率であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We characterize optimal oversight of algorithms in a world where an agent
designs a complex prediction function but a principal is limited in the amount
of information she can learn about the prediction function. We show that
limiting agents to prediction functions that are simple enough to be fully
transparent is inefficient as long as the bias induced by misalignment between
principal's and agent's preferences is small relative to the uncertainty about
the true state of the world. Algorithmic audits can improve welfare, but the
gains depend on the design of the audit tools. Tools that focus on minimizing
overall information loss, the focus of many post-hoc explainer tools, will
generally be inefficient since they focus on explaining the average behavior of
the prediction function rather than sources of mis-prediction, which matter for
welfare-relevant outcomes. Targeted tools that focus on the source of incentive
misalignment, e.g., excess false positives or racial disparities, can provide
first-best solutions. We provide empirical support for our theoretical findings
using an application in consumer lending.
- Abstract(参考訳): エージェントが複雑な予測関数を設計するが、プリンシパルは予測関数について学べる情報量に制限がある世界において、最適なアルゴリズムの監視を特徴付ける。
本研究は,主観と主観的選好の不一致による偏見が,世界の真の状態に関する不確実性に対して小さい限り,完全透明であるほど単純である予測関数に対するエージェントの制限は非効率であることを示す。
アルゴリズムによる監査は福祉を改善するが、その利益は監査ツールの設計に依存する。
多くのポストホックな説明ツールの焦点である、全体的な情報損失を最小化することに注力するツールは、福祉関連の結果である誤った予測源ではなく、予測関数の平均的な振る舞いを説明することに重点を置いているため、一般的に非効率である。
過度な偽陽性や人種格差といったインセンティブの不一致の源泉に焦点を絞ったツールは、最優先の解決策を提供することができる。
消費者貸出の応用による理論的知見の実証的支援を行う。
関連論文リスト
- A General Framework for Learning from Weak Supervision [93.89870459388185]
本稿では、新しいアルゴリズムを用いて、弱監督(GLWS)から学習するための一般的な枠組みを紹介する。
GLWSの中心は期待最大化(EM)の定式化であり、様々な弱い監督源を順応的に収容している。
また,EM計算要求を大幅に単純化する高度なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:48:50Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Social Mechanism Design: A Low-Level Introduction [31.564788318133264]
エージェントは、意思決定結果と意思決定に使用されるルールまたは手順の両方を優先していることを示す。
低レベルにおける単純で直感的な選好構造を同定し、より高いレベルにおける選好の構成要素を形成するように一般化する。
非対称的二分法選択と憲法修正という2つの異なる領域における受容のアルゴリズムを解析する。
論文 参考訳(メタデータ) (2022-11-15T20:59:34Z) - Actor-Critic based Improper Reinforcement Learning [61.430513757337486]
我々は,未知のマルコフ決定プロセスに対して,学習者に100万ドルのベースコントローラを付与する不適切な強化学習環境を考える。
本稿では,(1)ポリシーグラディエントに基づくアプローチ,(2)単純なアクター・クリティカル・スキームとNatural Actor-Criticスキームを切り替えるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-19T05:55:02Z) - Active Fairness Auditing [22.301071549943064]
本研究では,問合せに基づく監査アルゴリズムについて検討し,問合せ効率のよいMLモデルの妥当性を推定する。
本稿では,最適決定性アルゴリズムと,同等の保証を持つ実用的なランダム化・オラクル効率アルゴリズムを提案する。
アクティブフェアネス推定の最初の調査は、AIガバナンスをより堅固な理論基盤に置くことを目的としています。
論文 参考訳(メタデータ) (2022-06-16T21:12:00Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - FairXGBoost: Fairness-aware Classification in XGBoost [0.0]
本稿では,XGBoostの利点を享受しつつ,バイアス緩和アルゴリズムによる公平性のレベルを一致させたXGBoostのフェアバリアントを提案する。
フェアネスコミュニティで使用される標準ベンチマークデータセットについて,提案手法の実証分析を行った。
論文 参考訳(メタデータ) (2020-09-03T04:08:23Z) - Verification and Validation of Convex Optimization Algorithms for Model
Predictive Control [1.5322124183968633]
本稿では,凸最適化アルゴリズムであるEllipsoid法とそのコード実装の形式的検証について述べる。
これらのコードプロパティと証明の適用性と制限も提示される。
数値安定性の制御に使用できるアルゴリズムの修正について述べる。
論文 参考訳(メタデータ) (2020-05-26T09:18:14Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - XtracTree: a Simple and Effective Method for Regulator Validation of
Bagging Methods Used in Retail Banking [0.0]
ランダムフォレストなどのMLバッグ分類器を簡単な「if-then」ルールに変換するアルゴリズムであるXtracTreeを提案する。
我々の実験は、XtracTreeを使うことで、MLモデルをルールベースのアルゴリズムに変換することができることを示した。
提案されたアプローチにより、銀行機関は、エンドユーザへのAIソリューションのデリバリ時間の最大50%を削減できるようになりました。
論文 参考訳(メタデータ) (2020-04-05T21:57:06Z) - Improved Algorithms for Conservative Exploration in Bandits [113.55554483194832]
文脈線形帯域設定における保守的学習問題について検討し、新しいアルゴリズムである保守的制約付きLinUCB(CLUCB2)を導入する。
我々は、既存の結果と一致したCLUCB2に対する後悔の限界を導き、多くの合成および実世界の問題において、最先端の保守的バンディットアルゴリズムよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2020-02-08T19:35:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。