論文の概要: Insurance Portfolio Pursuit with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2408.00713v1
- Date: Thu, 1 Aug 2024 16:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 19:47:32.130893
- Title: Insurance Portfolio Pursuit with Reinforcement Learning
- Title(参考訳): 強化学習と保険ポートフォリオ
- Authors: Edward James Young, Alistair Rogers, Elliott Tong, James Jordon,
- Abstract要約: 本稿では,ポートフォリオ探索を逐次決定問題として定式化し,その解法のための新しい強化学習アルゴリズムを考案する。
本手法は複雑な総合市場環境において試行し,ポートフォリオ追求への現在の産業的アプローチを模したベースライン手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.151075150673961
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When faced with a new customer, many factors contribute to an insurance firm's decision of what offer to make to that customer. In addition to the expected cost of providing the insurance, the firm must consider the other offers likely to be made to the customer, and how sensitive the customer is to differences in price. Moreover, firms often target a specific portfolio of customers that could depend on, e.g., age, location, and occupation. Given such a target portfolio, firms may choose to modulate an individual customer's offer based on whether the firm desires the customer within their portfolio. Given a target portfolio, we term the problem of modulating offers to achieve this target portfolio the portfolio pursuit problem. We give a formulation of portfolio pursuit as a sequential decision making problem, and devise a novel reinforcement learning algorithm for its solution. We test our method on a complex synthetic market environment, and demonstrate that it outperforms a baseline method which mimics current industry approaches to portfolio pursuit.
- Abstract(参考訳): 新しい顧客に直面すると、保険会社がその顧客に何を提供するかという決定に多くの要因が貢献する。
保険提供の期待されるコストに加えて、同社は、他のオファーが顧客に対してなされる可能性や、顧客が価格差にどれほど敏感であるかを考慮しなければなりません。
さらに企業は、例えば年齢、場所、職業などに依存する可能性のある、特定の顧客ポートフォリオをターゲットにしていることが多い。
このような目標ポートフォリオを前提として、企業は、ポートフォリオ内の顧客を希望するかどうかに基づいて、個々の顧客のオファーを変更することができる。
目標ポートフォリオが与えられた場合、この目標ポートフォリオを達成するためのオファーの調整の問題をポートフォリオ追跡問題と呼ぶ。
逐次的意思決定問題としてポートフォリオ探索の定式化を行い、そのソリューションのための新しい強化学習アルゴリズムを考案する。
本手法は複雑な総合市場環境において試行し,ポートフォリオ追求への現在の産業的アプローチを模したベースライン手法よりも優れていることを示す。
関連論文リスト
- Segment Discovery: Enhancing E-commerce Targeting [8.000199536112937]
本稿では、アップリフトモデリングと制約付き最適化に基づくポリシーフレームワークを提案する。
本研究では,2つの大規模実験と実運用による最先端のターゲット手法の改善について述べる。
論文 参考訳(メタデータ) (2024-09-20T18:42:04Z) - Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Multi-Criteria Client Selection and Scheduling with Fairness Guarantee
for Federated Learning Service [17.986744632466515]
フェデレートラーニング(FL)は、複数のクライアントが生のトレーニングデータを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
公平性を保証するマルチ基準クライアント選択とスケジューリング方式を提案する。
我々のスキームは、特にデータが非IDである場合、モデル品質を改善することができる。
論文 参考訳(メタデータ) (2023-12-05T16:56:24Z) - Intent Detection at Scale: Tuning a Generic Model using Relevant Intents [0.5461938536945723]
本研究は,単一のジェネリックモデルとクライアント毎のインテントリストを組み合わせることで,インテント予測を多種多様なクライアントに効果的に拡張するシステムを提案する。
当社のアプローチは、クライアントに対してパーソナライズされたエクスペリエンスを提供しながら、トレーニングとメンテナンスのコストを最小限に抑え、関連する意図の変化にシームレスに対応できるようにします。
最終的なシステムは、業界固有のモデルと比較して非常に優れたパフォーマンスを示し、柔軟性と多様なクライアントニーズに対応する能力を示している。
論文 参考訳(メタデータ) (2023-09-15T13:15:20Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Outcome-Driven Reinforcement Learning via Variational Inference [95.82770132618862]
我々は、報酬を最大化する問題ではなく、望ましい結果を達成するための行動を推測する問題として、強化学習に関する新たな視点について論じる。
結果として得られる結果指向推論の問題を解決するため, 定型的報酬関数を導出する新しい変分推論定式を制定する。
我々は,この手法が報酬機能の設計を不要とし,効果的なゴール指向行動へと導くことを実証的に示す。
論文 参考訳(メタデータ) (2021-04-20T18:16:21Z) - Dynamically Tie the Right Offer to the Right Customer in
Telecommunications Industry [0.0]
本研究は,顧客ターゲットのキャンペーン依存変数に着目した概念モデルを提案する。
この研究の顧客セグメンテーションの結果は、マーケターにとってより意味があり、関連性があるかもしれない。
論文 参考訳(メタデータ) (2020-10-18T16:44:51Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。