論文の概要: Generative Adversarial Regression (GAR): Learning Conditional Risk Scenarios
- arxiv url: http://arxiv.org/abs/2603.08553v1
- Date: Mon, 09 Mar 2026 16:16:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.404825
- Title: Generative Adversarial Regression (GAR): Learning Conditional Risk Scenarios
- Title(参考訳): GAR(Generative Adversarial Regression) : 条件付きリスクシナリオの学習
- Authors: Saeed Asadi, Jonathan Yu-Meng Li,
- Abstract要約: 本稿では,下流のリスク目標に整合したジェネレータを通して条件付きリスクシナリオを学習するためのフレームワークであるジェネラティブ・アドバサリアル・レグレッション(GAR)を提案する。
GARは、量子型、期待型、および連立有価関数を含む有価関数の条件付きリスクの回帰的評価に基づいて構築される。
我々は、この原則を、同じコンテキスト下での実際のデータとポリシーによって引き起こされるリスクを一致させるジェネレータを訓練することで、生成モデリングに拡張する。
- 参考スコア(独自算出の注目度): 0.2864713389096699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Generative Adversarial Regression (GAR), a framework for learning conditional risk scenarios through generators aligned with downstream risk objectives. GAR builds on a regression characterization of conditional risk for elicitable functionals, including quantiles, expectiles, and jointly elicitable pairs. We extend this principle from point prediction to generative modeling by training generators whose policy-induced risk matches that of real data under the same context. To ensure robustness across all policies, GAR adopts a minimax formulation in which an adversarial policy identifies worst-case discrepancies in risk evaluation while the generator adapts to eliminate them. This structure preserves alignment with the risk functional across a broad class of policies rather than a fixed, pre-specified set. We illustrate GAR through a tail-risk instantiation based on jointly elicitable $(\mathrm{VaR}, \mathrm{ES})$ objectives. Experiments on S\&P 500 data show that GAR produces scenarios that better preserve downstream risk than unconditional, econometric, and direct predictive baselines while remaining stable under adversarially selected policies.
- Abstract(参考訳): 本稿では,下流のリスク目標に整合したジェネレータを通して条件付きリスクシナリオを学習するためのフレームワークであるジェネラティブ・アドバサリアル・レグレッション(GAR)を提案する。
GARは、量子型、期待型、および連立有価関数を含む有価関数の条件付きリスクの回帰的評価に基づいて構築される。
我々は、この原則をポイント予測から、同じコンテキスト下での実際のデータとポリシーによるリスクが一致した学習ジェネレータによる生成モデルまで拡張する。
すべてのポリシーの堅牢性を確保するため、GARは、ジェネレータがそれらを除去するために適応している間に、リスク評価における最悪のケースの相違を識別する、最小限の定式化を採用する。
この構造は、固定された、指定されたセットではなく、幅広いポリシーのクラスで機能するリスクとの整合性を保つ。
連立帰納可能な$(\mathrm{VaR}, \mathrm{ES})$目的に基づくテールリスクインスタンス化を通してGARを説明する。
S\&P 500データに関する実験では、GARは非条件、計量、直接予測ベースラインよりも下流のリスクを適切に保ちつつ、敵対的に選択されたポリシーの下で安定しているシナリオを生成する。
関連論文リスト
- Constrained Language Model Policy Optimization via Risk-aware Stepwise Alignment [49.2305683068875]
本稿では,リスク認識を政策最適化プロセスに組み込んだ新しいアライメント手法であるリスク対応ステップワイドアライメント(RSA)を提案する。
RSAは、過剰なモデルシフトによって引き起こされるリスクを基準方針から緩和し、低確率で高影響の有害な振る舞いを明示的に抑制する。
実験により, 本手法は高い安全性を確保しつつ, 高い安全性を達成できることが確認された。
論文 参考訳(メタデータ) (2025-12-30T14:38:02Z) - Risk-averse Total-reward MDPs with ERM and EVaR [12.719528972742394]
リスク・アバースの総報酬基準は定常政策によって最適化可能であることを示す。
以上の結果から, リスク回避型強化学習領域において, 全報酬基準が割引基準よりも望ましい可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-30T13:33:18Z) - C-RAG: Certified Generation Risks for Retrieval-Augmented Language Models [57.10361282229501]
RAGモデルの生成リスクを認証する最初のフレームワークであるC-RAGを提案する。
具体的には、RAGモデルに対して共形リスク分析を行い、生成リスクの上限以上の信頼度を認定する。
検索モデルと変圧器の品質が非自明な場合, RAG は単一の LLM よりも低い共形生成リスクを達成できることを示す。
論文 参考訳(メタデータ) (2024-02-05T16:46:16Z) - RASR: Risk-Averse Soft-Robust MDPs with EVaR and Entropic Risk [28.811725782388688]
本研究では,有限水平および割引無限水平MDPにおける不確実性に関連するリスクを共同でモデル化する新しい枠組みを提案し,分析する。
リスク回避をEVaRかエントロピーリスクのいずれかを用いて定義すると、RASRの最適ポリシーは時間依存型リスクレベルを持つ新しい動的プログラム定式化を用いて効率的に計算できることを示す。
論文 参考訳(メタデータ) (2022-09-09T00:34:58Z) - Holdouts set for safe predictive model updating [0.4499833362998489]
リスクスコアによって導かれる介入を受けない集団のサブセットであるホールドアウトセット(holdout set)の使用を提案する。
予防接種前の症例数を最小化するためには,約1万件のホールドアウトセットを用いて実施することが最善であることを示す。
論文 参考訳(メタデータ) (2022-02-13T18:04:00Z) - Risk-Averse Stochastic Shortest Path Planning [25.987787625028204]
最適、定常、マルコフの方針が存在することを示し、特別なベルマン方程式を用いて見出すことができる。
ローバーナビゲーションMDPを用いて,条件値値リスク(CVaR)とエントロピー値値リスク(EVaR)のコヒーレントリスク尺度を用いて提案手法を説明する。
論文 参考訳(メタデータ) (2021-03-26T20:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。