論文の概要: Revisiting Differentiable Structure Learning: Inconsistency of $\ell_1$ Penalty and Beyond
- arxiv url: http://arxiv.org/abs/2410.18396v1
- Date: Thu, 24 Oct 2024 03:17:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:44:21.759100
- Title: Revisiting Differentiable Structure Learning: Inconsistency of $\ell_1$ Penalty and Beyond
- Title(参考訳): 異なる構造学習を再考する:$$\ell_1$の罰則の不一致とそれ以上
- Authors: Kaifeng Jin, Ignavier Ng, Kun Zhang, Biwei Huang,
- Abstract要約: 微分可能な構造学習の最近の進歩は、連続的な最適化問題として、有向非巡回グラフを学習する問題の枠組みを定めている。
本研究では,微分可能な構造学習法における限界について検討する。
- 参考スコア(独自算出の注目度): 19.373348700715578
- License:
- Abstract: Recent advances in differentiable structure learning have framed the combinatorial problem of learning directed acyclic graphs as a continuous optimization problem. Various aspects, including data standardization, have been studied to identify factors that influence the empirical performance of these methods. In this work, we investigate critical limitations in differentiable structure learning methods, focusing on settings where the true structure can be identified up to Markov equivalence classes, particularly in the linear Gaussian case. While Ng et al. (2024) highlighted potential non-convexity issues in this setting, we demonstrate and explain why the use of $\ell_1$-penalized likelihood in such cases is fundamentally inconsistent, even if the global optimum of the optimization problem can be found. To resolve this limitation, we develop a hybrid differentiable structure learning method based on $\ell_0$-penalized likelihood with hard acyclicity constraint, where the $\ell_0$ penalty can be approximated by different techniques including Gumbel-Softmax. Specifically, we first estimate the underlying moral graph, and use it to restrict the search space of the optimization problem, which helps alleviate the non-convexity issue. Experimental results show that the proposed method enhances empirical performance both before and after data standardization, providing a more reliable path for future advancements in differentiable structure learning, especially for learning Markov equivalence classes.
- Abstract(参考訳): 微分可能な構造学習の最近の進歩は、連続的な最適化問題として、有向非巡回グラフの学習の組合せ問題を補足している。
データ標準化を含む様々な側面が研究され、これらの手法の実証的な性能に影響を与える要因が特定されている。
本研究では,マルコフ同値クラス,特に線型ガウスの場合において,真の構造がマルコフ同値クラスまで特定できるような設定に焦点をあてて,微分可能な構造学習手法の限界について検討する。
Ng et al (2024) はこの設定における潜在的な非凸性問題を強調したが、そのような場合において$\ell_1$-penalized chance を用いることは、たとえ最適化問題の大域的な最適化が見つかるとしても、基本的に矛盾する。
この制限を解決するために,Gumbel-Softmax などの異なる手法で $\ell_0$-penalized chance with hard acyclicity constraint を近似できるハイブリッド微分可能な構造学習法を開発した。
具体的には、まず基礎となるモラルグラフを推定し、最適化問題の探索空間を制限し、非凸性問題を緩和する。
実験結果から,本手法はデータの標準化前後の両方で経験的性能を向上し,特にマルコフ同値クラスを学習する上で,より信頼性の高い構造学習のパスを提供することが示された。
関連論文リスト
- Likelihood-based Differentiable Structure Learning [38.25218464260965]
有向非巡回グラフ(DAG)の微分可能な構造学習への既存のアプローチは、強い識別可能性仮定に依存している。
一般確率下での微分可能非周期制約プログラムの挙動を解析することにより,これらの問題を説明・改善する。
論文 参考訳(メタデータ) (2024-10-08T16:08:24Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Inverse Reinforcement Learning with Explicit Policy Estimates [19.159290496678004]
逆強化学習問題を解くための様々な手法が、機械学習と経済学において独立に開発された。
我々は、それらがすべて共通の形態の勾配、関連する政策と目的によって特徴づけられる最適化問題のクラスに属していることを示しています。
この最適化問題の研究から得られた知見を用いて,様々な問題シナリオを特定し,それらの問題に対する各手法の適合性について検討する。
論文 参考訳(メタデータ) (2021-03-04T07:00:58Z) - On The Convergence of First Order Methods for Quasar-Convex Optimization [1.52292571922932]
近年、ディープラーニングの成功は、多くの研究者に一般的なスムーズな非サーサー関数の研究を促している。
本稿では,様々な異なる設定における第1手法の収束について検討する。
論文 参考訳(メタデータ) (2020-10-10T08:16:32Z) - Batch Value-function Approximation with Only Realizability [17.692408242465763]
バッチ強化学習(RL):探索データセットからQstar$を学習する。
我々のアルゴリズムであるBVFTは、トーナメントの手順を通じて硬さ予想(探索データというより強い概念の下では)を破る。
また、BVFTが他の拡張と開問題の間のモデル選択にどのように適用できるかについても論じる。
論文 参考訳(メタデータ) (2020-08-11T20:09:37Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。