論文の概要: Learning Monotonic Probabilities with a Generative Cost Model
- arxiv url: http://arxiv.org/abs/2506.03542v1
- Date: Wed, 04 Jun 2025 03:54:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.138373
- Title: Learning Monotonic Probabilities with a Generative Cost Model
- Title(参考訳): 生成コストモデルによる単調確率の学習
- Authors: Yongxiang Tang, Yanhua Cheng, Xiaocheng Liu, Chenchen Jiao, Yanxiang Zeng, Ning Luo, Pengjia Yuan, Xialong Liu, Peng Jiang,
- Abstract要約: 本稿では、厳密な単調性の問題が、観測可能な収益変数と遅延コスト変数の間の部分的な順序と見なせることを示す。
本稿では,潜在コスト変数に対する生成ネットワークを導入し,暗黙的な単調問題に対処するインプリシット生成コストモデル(IGCM)を提案する。
- 参考スコア(独自算出の注目度): 6.846444442087272
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In many machine learning tasks, it is often necessary for the relationship between input and output variables to be monotonic, including both strictly monotonic and implicitly monotonic relationships. Traditional methods for maintaining monotonicity mainly rely on construction or regularization techniques, whereas this paper shows that the issue of strict monotonic probability can be viewed as a partial order between an observable revenue variable and a latent cost variable. This perspective enables us to reformulate the monotonicity challenge into modeling the latent cost variable. To tackle this, we introduce a generative network for the latent cost variable, termed the Generative Cost Model (GCM), which inherently addresses the strict monotonic problem, and propose the Implicit Generative Cost Model (IGCM) to address the implicit monotonic problem. We further validate our approach with a numerical simulation of quantile regression and conduct multiple experiments on public datasets, showing that our method significantly outperforms existing monotonic modeling techniques. The code for our experiments can be found at https://github.com/tyxaaron/GCM.
- Abstract(参考訳): 多くの機械学習タスクにおいて、入力変数と出力変数の関係は、厳密に単調な関係と暗黙的な単調な関係の両方を含む単調である必要があることが多い。
従来, モノトニック性を維持する手法は主に建設技術や正規化技術に依存していたが, 厳密なモノトニック確率の問題は, 観測可能な収益変数と遅延コスト変数の間の部分順序と見なすことができる。
この観点は、単調性課題を潜在コスト変数のモデリングに再編成することを可能にする。
そこで本研究では,厳密な単調問題に本質的に対処する生成コストモデル (GCM) と呼ばれる潜在コスト変数に対する生成ネットワークを導入し,暗黙的な単調問題に対処するインプリシット生成コストモデル (IGCM) を提案する。
さらに、量子回帰の数値シミュレーションを用いて、我々のアプローチを検証し、公開データセット上で複数の実験を行い、本手法が既存のモノトニックモデリング技術より著しく優れていることを示す。
実験のコードはhttps://github.com/tyxaaron/GCMで確認できます。
関連論文リスト
- MonoKAN: Certified Monotonic Kolmogorov-Arnold Network [48.623199394622546]
特定のアプリケーションでは、モデル予測は専門家が提案した要件と一致し、時には部分的な単調性制約によって例示されなければならない。
我々は,kanアーキテクチャに基づく新しいANNアーキテクチャMonoKANを導入し,解釈性を高めつつ,認証された部分的単調性を実現する。
実験の結果,MonoKANは解釈可能性を高めるだけでなく,ほとんどのベンチマークにおける予測性能も向上し,最先端のモノトニックアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T11:10:59Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Learning multi-modal generative models with permutation-invariant encoders and tighter variational objectives [5.549794481031468]
マルチモーダルデータに対する深い潜伏変数モデルの開発は、機械学習研究において長年のテーマであった。
本研究では,データログ類似度を厳密に近似できる変動目標について考察する。
我々は,PoE や MoE のアプローチにおける帰納バイアスを回避するために,より柔軟なアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2023-09-01T10:32:21Z) - Learning Joint Latent Space EBM Prior Model for Multi-layer Generator [44.4434704520236]
多層ジェネレータモデルの学習における基礎的問題について検討する。
本稿では,全層にまたがる待ち行列空間上のエネルギーモデル (EBM) を提案する。
実験により、学習したモデルが高品質な画像を生成する際に表現できることが実証された。
論文 参考訳(メタデータ) (2023-06-10T00:27:37Z) - How to address monotonicity for model risk management? [1.0878040851638]
本稿では, 個々の単調性, 弱い対単調性, 強い対単調性という, 3種類の単調性の存在下での透明ニューラルネットワークについて検討する。
透明性を維持しながらモノトニック性を達成する手段として,ニューラル付加モデルのモノトニックグローブを提案する。
論文 参考訳(メタデータ) (2023-04-28T04:21:02Z) - A study of latent monotonic attention variants [65.73442960456013]
エンドツーエンドモデルは音声認識の最先端性能に達するが、グローバルソフトな注意は単調ではない。
本稿では,新しい潜在変数を導入することで,単調性を導入する数学的にクリーンな解を提案する。
モノトニックモデルがグローバルソフトアテンションモデルと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-03-30T22:35:56Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Counterexample-Guided Learning of Monotonic Neural Networks [32.73558242733049]
単調性制約に注目するが、これは一般的であり、特定の入力特徴の値が増加するにつれて関数の出力が増加することが要求される。
本研究では,予測時の単調性制約を確実に強制する逆例誘導手法を開発した。
深層学習の帰納バイアスとして単調性を用いる手法も提案する。
論文 参考訳(メタデータ) (2020-06-16T01:04:26Z) - Exact Hard Monotonic Attention for Character-Level Transduction [76.66797368985453]
非単調なソフトアテンションを用いたニューラルシークエンス・ツー・シーケンスモデルは、しばしば一般的な単調モデルよりも優れていることを示す。
我々は、厳密な単調性を強制し、トランスデューサの学習中に協調して潜時アライメントを学習するハードアテンションシーケンス・ツー・シーケンス・モデルを開発した。
論文 参考訳(メタデータ) (2019-05-15T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。