論文の概要: Algorithm is Experiment: Machine Learning, Market Design, and Policy
Eligibility Rules
- arxiv url: http://arxiv.org/abs/2104.12909v1
- Date: Mon, 26 Apr 2021 23:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 23:58:38.481771
- Title: Algorithm is Experiment: Machine Learning, Market Design, and Policy
Eligibility Rules
- Title(参考訳): アルゴリズムは実験である:機械学習、市場設計、ポリシー適格性ルール
- Authors: Yusuke Narita and Kohei Yata
- Abstract要約: 決定論的アルゴリズムのクラスに対する処理効果推定器を開発した。
私たちの推定値は、明確に定義された効果に対して一貫性があり、因果的に正常であることが示されています。
我々は,コロナウイルスエイド,救済,経済保障(CARES)法の効果を評価するために,推定器を適用した。
- 参考スコア(独自算出の注目度): 3.655021726150369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms produce a growing portion of decisions and recommendations both in
policy and business. Such algorithmic decisions are natural experiments
(conditionally quasi-randomly assigned instruments) since the algorithms make
decisions based only on observable input variables. We use this observation to
develop a treatment-effect estimator for a class of stochastic and
deterministic algorithms. Our estimator is shown to be consistent and
asymptotically normal for well-defined causal effects. A key special case of
our estimator is a high-dimensional regression discontinuity design. The proofs
use tools from differential geometry and geometric measure theory, which may be
of independent interest.
The practical performance of our method is first demonstrated in a
high-dimensional simulation resembling decision-making by machine learning
algorithms. Our estimator has smaller mean squared errors compared to
alternative estimators. We finally apply our estimator to evaluate the effect
of Coronavirus Aid, Relief, and Economic Security (CARES) Act, where more than
\$10 billion worth of relief funding is allocated to hospitals via an
algorithmic rule. The estimates suggest that the relief funding has little
effects on COVID-19-related hospital activity levels. Naive OLS and IV
estimates exhibit substantial selection bias.
- Abstract(参考訳): アルゴリズムは、政策とビジネスの両方において、意思決定と推奨の増大する部分を生み出します。
このようなアルゴリズム決定は、観測可能な入力変数のみに基づいて決定を行うため、自然実験(条件付き準ランダムに割り当てられた機器)である。
この観測結果を用いて,確率的および決定論的アルゴリズムのクラスに対する治療効果推定器を開発した。
我々の推定値は、よく定義された因果効果に対して一貫性があり漸近的に正常であることが示されている。
我々の推定器の重要なケースは高次元回帰不連続設計である。
証明は微分幾何学と幾何学的測度論のツールを使い、独立した興味を持つかもしれない。
本手法の実用性は,機械学習アルゴリズムによる意思決定に類似した高次元シミュレーションで実証された。
我々の推定器は代替推定器に比べて平均二乗誤差が小さい。
最終的には、アルゴリズムによって100億ドル以上の救済資金が病院に配分されるコロナウイルスエイド、救済、経済保障法(CARES)の効果を評価するために、我々の推定装置を適用します。
推定によると、救済資金は新型コロナウイルス関連の病院活動レベルにはほとんど影響がない。
ナイーブ ols と iv の推定値は、かなりの選択バイアスを示す。
関連論文リスト
- Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Planning Multiple Epidemic Interventions with Reinforcement Learning [7.51289645756884]
最適な計画は、寿命の最小限の損失、病気の重荷、経済的コストによる流行を抑制することである。
最適な計画を見つけることは、現実的な設定における難解な計算問題である。
我々は、最先端のアクター-批評家強化学習アルゴリズムを、全体的なコストを最小化する計画の探索に適用する。
論文 参考訳(メタデータ) (2023-01-30T11:51:24Z) - Nearly Optimal Latent State Decoding in Block MDPs [74.51224067640717]
エピソードブロック MDP では、意思決定者は少数の潜在状態から生成される豊富な観測やコンテキストにアクセスすることができる。
まず、固定動作ポリシーに基づいて生成されたデータに基づいて、潜時状態復号関数を推定することに興味がある。
次に、報酬のないフレームワークにおいて、最適に近いポリシーを学習する問題について研究する。
論文 参考訳(メタデータ) (2022-08-17T18:49:53Z) - Safe Online Bid Optimization with Return-On-Investment and Budget
Constraints subject to Uncertainty [87.81197574939355]
最適化問題と学習問題の両方について検討する。
我々は、潜在的に線形な数の制約違反を犠牲にして、サブ線形後悔を保証するアルゴリズム、すなわちGCBを提供する。
より興味深いことに、我々はGCB_safe(psi,phi)というアルゴリズムを提供し、サブ線形擬似回帰と安全性w.h.p.の両方を、耐性 psi と phi を受け入れるコストで保証する。
論文 参考訳(メタデータ) (2022-01-18T17:24:20Z) - A Reinforcement Learning Approach to the Stochastic Cutting Stock
Problem [0.0]
本稿では,削減された無限水平決定プロセスとして,カットストック問題の定式化を提案する。
最適解は、各状態と決定を関連付け、期待される総コストを最小化するポリシーに対応する。
論文 参考訳(メタデータ) (2021-09-20T14:47:54Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Pricing Algorithmic Insurance [3.705785916791345]
本稿では, アルゴリズム保険の概念を導入し, 導出保険契約の価格設定を実現するための定量的枠組みを提案する。
提案手法は, 精度, 解釈可能性, 一般化可能性などのモデルの性質が, 保険契約評価にどのように影響するかを概説する。
論文 参考訳(メタデータ) (2021-06-01T22:32:02Z) - Stochastic Intervention for Causal Effect Estimation [7.015556609676951]
介入効果を推定するための新しい確率スコアと介入効果推定器(SIE)を提案する。
また,介入効果(Ge-SIO)に特異的な遺伝的アルゴリズムを設計し,意思決定の因果的証拠を提供する。
提案手法とアルゴリズムは,最先端のベースラインと比較して,大幅な性能向上を実現することができる。
論文 参考訳(メタデータ) (2021-05-27T01:12:03Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。