論文の概要: Enhancing Sufficient Dimension Reduction via Hellinger Correlation
- arxiv url: http://arxiv.org/abs/2405.19704v1
- Date: Thu, 30 May 2024 05:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 17:57:08.581407
- Title: Enhancing Sufficient Dimension Reduction via Hellinger Correlation
- Title(参考訳): ヘリンジャー相関による十分次元削減の促進
- Authors: Seungbeom Hong, Ilmun Kim, Jun Song,
- Abstract要約: 単一インデックスモデルにおける十分次元還元(SDR)の新しい理論と手法を開発する。
私たちの研究は、依存関係の尺度としてのHellinger相関の導入によって動機付けられています。
本研究では,提案手法が既存のSDR法を大幅に向上し,性能を向上することを示す。
- 参考スコア(独自算出の注目度): 4.394151227332108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we develop a new theory and method for sufficient dimension reduction (SDR) in single-index models, where SDR is a sub-field of supervised dimension reduction based on conditional independence. Our work is primarily motivated by the recent introduction of the Hellinger correlation as a dependency measure. Utilizing this measure, we develop a method capable of effectively detecting the dimension reduction subspace, complete with theoretical justification. Through extensive numerical experiments, we demonstrate that our proposed method significantly enhances and outperforms existing SDR methods. This improvement is largely attributed to our proposed method's deeper understanding of data dependencies and the refinement of existing SDR techniques.
- Abstract(参考訳): 本研究では,SDRが条件付き独立性に基づく教師付き次元縮小のサブフィールドである単一インデックスモデルにおいて,十分次元還元(SDR)の新たな理論と手法を開発する。
私たちの研究は主に、依存関係の尺度としてのHellinger相関の導入によって動機付けられています。
本手法を用いることで,次元縮小部分空間を効果的に検出し,理論的正当性を完備する手法を開発した。
大規模な数値実験により,提案手法は既存のSDR法を大幅に向上し,性能を向上することを示した。
この改善は,提案手法がデータ依存の深い理解と既存のSDR技術の改良に大きく寄与している。
関連論文リスト
- Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - Iterative Preference Learning from Human Feedback: Bridging Theory and Practice for RLHF under KL-Constraint [56.74058752955209]
本稿では,RLHFによる強化学習を用いた生成モデルのアライメント過程について検討する。
まず、オフラインPPOやオフラインDPOのような既存の一般的な手法の主な課題を、環境の戦略的探索に欠如していると認識する。
有限サンプル理論保証を用いた効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:58:42Z) - Simultaneous Dimensionality Reduction: A Data Efficient Approach for Multimodal Representations Learning [0.0]
次元性還元(DR):独立次元性還元(IDR)と同時次元性還元(SDR)の2つの主要クラスを探索する。
IDRでは、各モダリティは独立に圧縮され、可能な限り各モダリティに多くのばらつきを保持するよう努力する。
SDRでは、モダリティを同時に圧縮して、削減された記述間の共変を最大化し、個々の変動がどれだけ保存されているかに注意を払わない。
論文 参考訳(メタデータ) (2023-10-05T04:26:24Z) - Contrastive inverse regression for dimension reduction [0.0]
コントラッシブ・リバース・レグレッション (CIR) と呼ばれる, コントラッシブ・セッティングに特化して設計されたディメンション・リダクション法を提案する。
CIRは、非標準損失関数を持つスティーフェル多様体上で定義される最適化問題を導入する。
勾配勾配勾配に基づくアルゴリズムを用いて,CIRの局所最適収束を証明し,高次元データに対する競合手法よりも優れた性能を実証的に示す。
論文 参考訳(メタデータ) (2023-05-20T21:44:11Z) - A Direct Sampling-Based Deep Learning Approach for Inverse Medium
Scattering Problems [3.776050336003086]
非均一な散乱体を再構成するための新しい直接サンプリングベースディープラーニング手法(DSM-DL)を提案する。
提案するDSM-DLは,計算効率が高く,ノイズに耐性があり,実装が容易で,自然に複数の計測データを組み込むことができる。
論文 参考訳(メタデータ) (2023-04-29T12:29:30Z) - ASR: Attention-alike Structural Re-parameterization [53.019657810468026]
本稿では,アテンション機構の有効性を享受しながら,与えられたネットワークに対してSRPを実現するための,シンプルなアテンション型構造的再パラメータ化(ASR)を提案する。
本稿では,統計的観点から広範囲にわたる実験を行い,Stripe Observationという興味深い現象を発見し,チャネル注意値が訓練中に一定のベクトルに素早く接近することを明らかにする。
論文 参考訳(メタデータ) (2023-04-13T08:52:34Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - A Provably Efficient Model-Free Posterior Sampling Method for Episodic
Reinforcement Learning [50.910152564914405]
強化学習のための既存の後方サンプリング手法は、モデルベースであるか、線形MDPを超える最悪の理論的保証がないかによって制限される。
本稿では,理論的保証を伴うより一般的な補足的強化学習問題に適用可能な,後部サンプリングのモデルフリーな新しい定式化を提案する。
論文 参考訳(メタデータ) (2022-08-23T12:21:01Z) - A coarse space acceleration of deep-DDM [0.0]
我々は最近提案されたPDEの解法に対するディープ・ダム・アプローチの拡張について述べる。
粗い空間補正は、解法の収束の劣化を軽減することができることを示す。
実験により,本手法は深部ddm法の顕著な加速を誘導することが示された。
論文 参考訳(メタデータ) (2021-12-07T14:41:28Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z) - A Deep Learning approach to Reduced Order Modelling of Parameter
Dependent Partial Differential Equations [0.2148535041822524]
パラメーター対解写像の効率的な近似法として,Deep Neural Networks に基づく構築的アプローチを開発した。
特に, パラメタライズド・アドベクション拡散PDEについて検討し, 強輸送場の存在下で方法論を検証した。
論文 参考訳(メタデータ) (2021-03-10T17:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。