論文の概要: Unpacking the Black Box: Regulating Algorithmic Decisions
- arxiv url: http://arxiv.org/abs/2110.03443v3
- Date: Fri, 31 May 2024 23:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 00:04:47.840160
- Title: Unpacking the Black Box: Regulating Algorithmic Decisions
- Title(参考訳): Black Boxのアンパック:アルゴリズムによる決定の規制
- Authors: Laura Blattner, Scott Nelson, Jann Spiess,
- Abstract要約: 本稿では,貸付,医療検査,雇用などの高額なアプリケーションで使用される「ブラックボックス」アルゴリズムの監視モデルを提案する。
複雑なアルゴリズムを許すことは、福祉を改善することができるが、その利益は規制当局の規制方法に依存する。
- 参考スコア(独自算出の注目度): 1.283555556182245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What should regulators of complex algorithms regulate? We propose a model of oversight over 'black-box' algorithms used in high-stakes applications such as lending, medical testing, or hiring. In our model, a regulator is limited in how much she can learn about a black-box model deployed by an agent with misaligned preferences. The regulator faces two choices: first, whether to allow for the use of complex algorithms; and second, which key properties of algorithms to regulate. We show that limiting agents to algorithms that are simple enough to be fully transparent is inefficient as long as the misalignment is limited and complex algorithms have sufficiently better performance than simple ones. Allowing for complex algorithms can improve welfare, but the gains depend on how the regulator regulates them. Regulation that focuses on the overall average behavior of algorithms, for example based on standard explainer tools, will generally be inefficient. Targeted regulation that focuses on the source of incentive misalignment, e.g., excess false positives or racial disparities, can provide second-best solutions. We provide empirical support for our theoretical findings using an application in consumer lending, where we document that complex models regulated based on context-specific explanation tools outperform simple, fully transparent models. This gain from complex models represents a Pareto improvement across our empirical applications that is preferred both by the lender and from the perspective of the financial regulator.
- Abstract(参考訳): 複雑なアルゴリズムの規制は何を規制すべきか?
本稿では,貸付,医療検査,雇用などの高額なアプリケーションで使用される「ブラックボックス」アルゴリズムの監視モデルを提案する。
私たちのモデルでは、規制官は、ミスマッチした好みを持つエージェントによってデプロイされたブラックボックスモデルについて、どの程度の量で学べるかに制限されています。
第1に、複雑なアルゴリズムの使用を許可するかどうか、第2に、どのアルゴリズムの重要な特性を規制するか、という2つの選択肢に直面している。
完全透明なアルゴリズムに対するエージェントの制限は、ミスアライメントが制限され、複雑なアルゴリズムが単純なアルゴリズムよりも十分な性能を有する限り、非効率であることを示す。
複雑なアルゴリズムを許すことは、福祉を改善することができるが、その利益は規制当局がそれらをどのように規制するかに依存する。
例えば、標準的な説明ツールに基づいたアルゴリズムの平均的な振る舞いにフォーカスする規則は、一般的に非効率である。
インセンティブのミスアライメント(例えば過剰な偽陽性または人種格差)の源泉に焦点を当てた規制は、第二のベストソリューションを提供することができる。
我々は,消費者貸付の応用を用いて,理論的知見を実証的に支援する。そこでは,コンテキスト固有の説明ツールに基づく複雑なモデルが,単純で完全透明なモデルよりも優れていることを示す。
複雑なモデルから得られるこの利益は、銀行や金融規制当局の観点からも好ましい経験的応用におけるParetoの改善を表している。
関連論文リスト
- A General Framework for Learning from Weak Supervision [93.89870459388185]
本稿では、新しいアルゴリズムを用いて、弱監督(GLWS)から学習するための一般的な枠組みを紹介する。
GLWSの中心は期待最大化(EM)の定式化であり、様々な弱い監督源を順応的に収容している。
また,EM計算要求を大幅に単純化する高度なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:48:50Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Social Mechanism Design: A Low-Level Introduction [31.564788318133264]
エージェントは、意思決定結果と意思決定に使用されるルールまたは手順の両方を優先していることを示す。
低レベルにおける単純で直感的な選好構造を同定し、より高いレベルにおける選好の構成要素を形成するように一般化する。
非対称的二分法選択と憲法修正という2つの異なる領域における受容のアルゴリズムを解析する。
論文 参考訳(メタデータ) (2022-11-15T20:59:34Z) - Actor-Critic based Improper Reinforcement Learning [61.430513757337486]
我々は,未知のマルコフ決定プロセスに対して,学習者に100万ドルのベースコントローラを付与する不適切な強化学習環境を考える。
本稿では,(1)ポリシーグラディエントに基づくアプローチ,(2)単純なアクター・クリティカル・スキームとNatural Actor-Criticスキームを切り替えるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-19T05:55:02Z) - Active Fairness Auditing [22.301071549943064]
本研究では,問合せに基づく監査アルゴリズムについて検討し,問合せ効率のよいMLモデルの妥当性を推定する。
本稿では,最適決定性アルゴリズムと,同等の保証を持つ実用的なランダム化・オラクル効率アルゴリズムを提案する。
アクティブフェアネス推定の最初の調査は、AIガバナンスをより堅固な理論基盤に置くことを目的としています。
論文 参考訳(メタデータ) (2022-06-16T21:12:00Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - FairXGBoost: Fairness-aware Classification in XGBoost [0.0]
本稿では,XGBoostの利点を享受しつつ,バイアス緩和アルゴリズムによる公平性のレベルを一致させたXGBoostのフェアバリアントを提案する。
フェアネスコミュニティで使用される標準ベンチマークデータセットについて,提案手法の実証分析を行った。
論文 参考訳(メタデータ) (2020-09-03T04:08:23Z) - Verification and Validation of Convex Optimization Algorithms for Model
Predictive Control [1.5322124183968633]
本稿では,凸最適化アルゴリズムであるEllipsoid法とそのコード実装の形式的検証について述べる。
これらのコードプロパティと証明の適用性と制限も提示される。
数値安定性の制御に使用できるアルゴリズムの修正について述べる。
論文 参考訳(メタデータ) (2020-05-26T09:18:14Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - XtracTree: a Simple and Effective Method for Regulator Validation of
Bagging Methods Used in Retail Banking [0.0]
ランダムフォレストなどのMLバッグ分類器を簡単な「if-then」ルールに変換するアルゴリズムであるXtracTreeを提案する。
我々の実験は、XtracTreeを使うことで、MLモデルをルールベースのアルゴリズムに変換することができることを示した。
提案されたアプローチにより、銀行機関は、エンドユーザへのAIソリューションのデリバリ時間の最大50%を削減できるようになりました。
論文 参考訳(メタデータ) (2020-04-05T21:57:06Z) - Improved Algorithms for Conservative Exploration in Bandits [113.55554483194832]
文脈線形帯域設定における保守的学習問題について検討し、新しいアルゴリズムである保守的制約付きLinUCB(CLUCB2)を導入する。
我々は、既存の結果と一致したCLUCB2に対する後悔の限界を導き、多くの合成および実世界の問題において、最先端の保守的バンディットアルゴリズムよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2020-02-08T19:35:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。