論文の概要: Structure Learning with Continuous Optimization: A Sober Look and Beyond
- arxiv url: http://arxiv.org/abs/2304.02146v2
- Date: Mon, 19 Aug 2024 17:13:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-08-21 04:48:49.032531
- Title: Structure Learning with Continuous Optimization: A Sober Look and Beyond
- Title(参考訳): 継続的最適化による構造学習の展望
- Authors: Ignavier Ng, Biwei Huang, Kun Zhang,
- Abstract要約: 本稿では,非巡回グラフ (DAG) 構造学習における連続的な最適化が有効であり,かつ有効に機能しない場合について検討する。
しきい値と疎度を含む探索手順のいくつかの側面に関する洞察を提供し、最終解においてそれらが重要な役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 21.163991683650526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates in which cases continuous optimization for directed acyclic graph (DAG) structure learning can and cannot perform well and why this happens, and suggests possible directions to make the search procedure more reliable. Reisach et al. (2021) suggested that the remarkable performance of several continuous structure learning approaches is primarily driven by a high agreement between the order of increasing marginal variances and the topological order, and demonstrated that these approaches do not perform well after data standardization. We analyze this phenomenon for continuous approaches assuming equal and non-equal noise variances, and show that the statement may not hold in either case by providing counterexamples, justifications, and possible alternative explanations. We further demonstrate that nonconvexity may be a main concern especially for the non-equal noise variances formulation, while recent advances in continuous structure learning fail to achieve improvement in this case. Our findings suggest that future works should take into account the non-equal noise variances formulation to handle more general settings and for a more comprehensive empirical evaluation. Lastly, we provide insights into other aspects of the search procedure, including thresholding and sparsity, and show that they play an important role in the final solutions.
- Abstract(参考訳): 本稿では,有向非巡回グラフ(DAG)構造学習を連続的に最適化する手法を提案する。
Reisach et al (2021) は、いくつかの連続構造学習手法の顕著な性能は、主に境界分散の増加順序とトポロジ的順序の間の高い一致によって引き起こされ、これらの手法がデータの標準化後にうまく機能しないことを示した。
我々は、この現象を、等値なノイズ分散と非等値なノイズ分散を仮定した連続的アプローチで解析し、その文がいずれの場合も、逆例、正当性、代替的な説明を提供することによって成り立たないことを示す。
さらに、非凸性は、特に非等質ノイズ分散の定式化において主要な関心事であるが、近年の継続的構造学習の進歩は、この場合改善に至らなかった。
本研究は, より一般的な設定やより包括的な経験的評価のために, 不等なノイズ分散の定式化を考慮し, 今後の課題を考察するものであることを示唆する。
最後に,サーチプロシージャの他の側面について,しきい値や疎度などの知見を提供し,最終ソリューションにおいてそれらが重要な役割を担っていることを示す。
関連論文リスト
- Dynamics Within Latent Chain-of-Thought: An Empirical Study of Causal Structure [58.89643769707751]
表現空間における潜在連鎖を操作可能な因果過程として研究する。
遅延ステップの予算は、均質な余分な深さよりも、非局所的なルーティングを備えたステージ機能のように振る舞う。
これらの結果は、モード条件と安定性を意識した分析を、潜伏推論システムの解釈と改善のための信頼性の高いツールとして動機付けている。
論文 参考訳(メタデータ) (2026-02-09T15:25:12Z) - Provable Benefit of Curriculum in Transformer Tree-Reasoning Post-Training [76.12556589212666]
学習後のカリキュラムは指数関数的複雑性のボトルネックを回避していることを示す。
結果のみの報酬信号の下では、強化学習の微調整は、サンプルの複雑さを高い精度で達成する。
カリキュラムを意識したクエリにより、報奨託書の呼び出しとサンプリングコストの両方を指数関数的に削減するテストタイムスケーリングの保証を確立する。
論文 参考訳(メタデータ) (2025-11-10T18:29:54Z) - When Do Credal Sets Stabilize? Fixed-Point Theorems for Credal Set Updates [12.230769294623121]
インプレクションと曖昧さの存在下で、不正確な確率的信念を表現するための一般的な枠組みとして、クレダーセットが出現してきた。
学習過程に不正確さを組み込むことは不確実性の表現を豊かにするだけでなく、安定性が出現する構造的条件も明らかにする。
論文 参考訳(メタデータ) (2025-10-06T12:42:32Z) - Shuffling Heuristic in Variational Inequalities: Establishing New Convergence Guarantees [42.99716861039235]
シャッフル戦略は変分不等式問題を解決するのに有効であることを示す。
この文脈におけるシャッフル法に対する最初の理論的収束推定を提供する。
多様なベンチマーク変動不等式問題に関する広範な実験により,本研究の成果を検証した。
論文 参考訳(メタデータ) (2025-09-04T12:00:18Z) - Global Convergence of Continual Learning on Non-IID Data [51.99584235667152]
回帰モデルの連続学習のための総合的・包括的理論的解析を行う。
一般データ条件下で連続学習のほぼ確実に収束する結果を初めて確立する。
論文 参考訳(メタデータ) (2025-03-24T10:06:07Z) - Revisiting Differentiable Structure Learning: Inconsistency of $\ell_1$ Penalty and Beyond [19.373348700715578]
微分可能な構造学習の最近の進歩は、連続的な最適化問題として、有向非巡回グラフを学習する問題の枠組みを定めている。
本研究では,微分可能な構造学習法における限界について検討する。
論文 参考訳(メタデータ) (2024-10-24T03:17:14Z) - On the Generalization Ability of Unsupervised Pretraining [53.06175754026037]
教師なし学習の最近の進歩は、教師なし事前学習、および微調整がモデル一般化を改善することを示している。
本稿では、教師なし事前学習中に得られた知識の伝達可能性に影響を及ぼす重要な要因をその後の微調整フェーズに照らす新しい理論的枠組みを提案する。
この結果は教師なし事前学習と微調整のパラダイムの理解を深め、より効果的な事前学習アルゴリズムの設計に光を当てることができる。
論文 参考訳(メタデータ) (2024-03-11T16:23:42Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Differentiable Bayesian Structure Learning with Acyclicity Assurance [7.568978862189266]
トポロジ的順序付けからの知識の統合によりグラフの非巡回性を厳格に制限する代替手法を提案する。
提案手法は、生成したグラフの構造が非循環であることを保証しながら、推論の複雑さを低減することができる。
論文 参考訳(メタデータ) (2023-09-04T06:44:46Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Causal Structural Learning from Time Series: A Convex Optimization
Approach [12.4517307615083]
構造学習は、観測データから有向非巡回グラフ(DAG)を学習することを目的としている。
最近のDAG学習は、非常に非適応的な構造学習問題である。
近年開発されたモノトーン変分法(VI)を用いた因果学習のためのデータアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-26T16:39:58Z) - Tractable Uncertainty for Structure Learning [21.46601360284884]
近似後推論のためのフレームワークであるSTructureのTractable Uncertaintyを提案する。
確率回路は構造学習のための拡張表現として利用できる。
論文 参考訳(メタデータ) (2022-04-29T15:54:39Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - Interpolation can hurt robust generalization even when there is no noise [76.3492338989419]
リッジの正規化による一般化の回避は,ノイズがなくても大幅に一般化できることを示す。
この現象は線形回帰と分類の両方のロバストなリスクを証明し、したがってロバストなオーバーフィッティングに関する最初の理論的結果を与える。
論文 参考訳(メタデータ) (2021-08-05T23:04:15Z) - Convergence rates and approximation results for SGD and its
continuous-time counterpart [16.70533901524849]
本稿では,非増加ステップサイズを有する凸勾配Descent (SGD) の完全理論的解析を提案する。
まず、結合を用いた不均一微分方程式(SDE)の解により、SGDを確実に近似できることを示す。
連続的手法による決定論的および最適化手法の最近の分析において, 連続過程の長期的挙動と非漸近的境界について検討する。
論文 参考訳(メタデータ) (2020-04-08T18:31:34Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。