論文の概要: Government Intervention in Catastrophe Insurance Markets: A
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2207.01010v1
- Date: Sun, 3 Jul 2022 11:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 16:46:02.636797
- Title: Government Intervention in Catastrophe Insurance Markets: A
Reinforcement Learning Approach
- Title(参考訳): 災害保険市場における政府介入--強化学習アプローチ
- Authors: Menna Hassan, Nourhan Sakr and Arthur Charpentier
- Abstract要約: 本論文は,ケース・バイ・ケース・バイ・ケースで相互に比較することで,提案する介入の望ましさを厳格に論じる。
本論文は, 実現可能性研究を支援するキャリブレーション理論モデルを用いて, アルゴリズムによる政策評価を行うための枠組みを提供する。
- 参考スコア(独自算出の注目度): 0.04297070083645048
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper designs a sequential repeated game of a micro-founded society with
three types of agents: individuals, insurers, and a government. Nascent to
economics literature, we use Reinforcement Learning (RL), closely related to
multi-armed bandit problems, to learn the welfare impact of a set of proposed
policy interventions per $1 spent on them. The paper rigorously discusses the
desirability of the proposed interventions by comparing them against each other
on a case-by-case basis. The paper provides a framework for algorithmic policy
evaluation using calibrated theoretical models which can assist in feasibility
studies.
- Abstract(参考訳): 本稿では, 個人, 保険会社, 政府という3種類のエージェントによる, マイクロファウンデーション社会の連続的なゲームを設計する。
経済文献のほかに、多武装の盗賊問題と密接に関連する強化学習(Reinforcement Learning, RL)を用いて、1ドルあたりの政策介入の提案による福祉効果を学習する。
本論文は,提案手法をケースバイケースで比較することにより,提案手法の有効性を厳密に議論する。
本論文は,実現可能性研究を支援する校正理論モデルを用いたアルゴリズム政策評価の枠組みを提供する。
関連論文リスト
- Active and Passive Causal Inference Learning [51.91564516458894]
本稿では,因果推論に関心を持つ機械学習研究者,技術者,学生の出発点となる。
まず、因果同定に総合的に必要とされる重要な仮定のセットを配置することから始めます。
私たちは、それらを2つのバケット、アクティブとパッシブのアプローチに分類することで、重要な因果推論テクニックのセットを構築します。
論文 参考訳(メタデータ) (2023-08-18T02:23:48Z) - On the Robustness of Epoch-Greedy in Multi-Agent Contextual Bandit
Mechanisms [0.7734726150561088]
最も顕著な文脈的バンディットアルゴリズムである$epsilon$-greedyは、戦略兵器がもたらした課題に対処するために拡張可能であることを示す。
また、$epsilon$-greedyは本質的に敵対的なデータ汚職攻撃に対して堅牢であり、汚職の量とともに線形に劣化するパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2023-07-15T01:20:31Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Online Learning with Off-Policy Feedback [18.861989132159945]
本研究では,オフポリシーフィードバックと呼ばれる部分的可観測性モデルの下で,対向的帯域幅問題におけるオンライン学習の問題点について検討する。
我々は,任意のコンパレータポリシーと行動ポリシーのミスマッチという自然な概念でスケールする後悔境界を保証するアルゴリズムのセットを提案する。
論文 参考訳(メタデータ) (2022-07-18T21:57:16Z) - (Machine) Learning What Policies Value [2.0267847227859144]
本稿では,観測された割当決定と一致した値を明らかにする手法を開発した。
機械学習の手法を使って、各個人が介入によってどれだけの恩恵を受けるかを推定します。
メキシコのPROGRESAアンチ・ポルノ・プログラムを分析して、このアプローチを実証する。
論文 参考訳(メタデータ) (2022-06-01T19:33:09Z) - Off-policy Reinforcement Learning with Optimistic Exploration and
Distribution Correction [73.77593805292194]
我々は、政治以外のアクター批判的枠組みにおいて、批評家のほぼ上位信頼度を最大化するために、別の調査政策を訓練する。
最近導入されたDICEフレームワークを応用して、非政治アクター犯罪訓練のための分布補正比を学習する。
論文 参考訳(メタデータ) (2021-10-22T22:07:51Z) - State Augmented Constrained Reinforcement Learning: Overcoming the
Limitations of Learning with Rewards [88.30521204048551]
制約付き強化学習の一般的な定式化には、与えられた閾値に個別に蓄積しなければならない複数の報酬が含まれる。
ここでは,任意の重み付けされた報酬の線形結合によって,所望の最適政策を誘導できない簡単な例を示す。
この研究は、ラグランジュ乗算器で状態を増大させ、原始双対法を再解釈することで、この欠点に対処する。
論文 参考訳(メタデータ) (2021-02-23T21:07:35Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - Average Reward Adjusted Discounted Reinforcement Learning:
Near-Blackwell-Optimal Policies for Real-World Applications [0.0]
強化学習は、与えられたマルコフ決定プロセスの最適な定常ポリシーを見つけることを目的としている。
本稿では,広く適用されている標準割引強化学習フレームワークについて,理論的考察を行う。
我々はブラックウェル-最適強化学習アルゴリズムを新たに構築する。
論文 参考訳(メタデータ) (2020-04-02T08:05:18Z) - A Survey on Causal Inference [64.45536158710014]
因果推論は統計学、コンピュータ科学、教育、公共政策、経済学など、多くの分野において重要な研究トピックである。
観測データに対する様々な因果効果推定法が誕生した。
論文 参考訳(メタデータ) (2020-02-05T21:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。