論文の概要: Improving Accuracy of Permutation DAG Search using Best Order Score
Search
- arxiv url: http://arxiv.org/abs/2108.10141v1
- Date: Tue, 17 Aug 2021 13:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:12:49.105469
- Title: Improving Accuracy of Permutation DAG Search using Best Order Score
Search
- Title(参考訳): Best Order Score Search を用いた置換DAG探索の精度向上
- Authors: Joseph D. Ramsey
- Abstract要約: Sparsest Permutation (SP)アルゴリズムは正確だが、実際には約9変数に制限されている。
Greedy Sparest Permutation (GSP)アルゴリズムは高速だが理論的には弱い。
妥協点としてベスト・オーダースコア・サーチ(Best Order Score Search)がある。
- 参考スコア(独自算出の注目度): 3.553493344868414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Sparsest Permutation (SP) algorithm is accurate but limited to about 9
variables in practice; the Greedy Sparest Permutation (GSP) algorithm is faster
but less weak theoretically. A compromise can be given, the Best Order Score
Search, which gives results as accurate as SP but for much larger and denser
graphs. BOSS (Best Order Score Search) is more accurate for two reason: (a) It
assumes the "brute faithfuness" assumption, which is weaker than faithfulness,
and (b) it uses a different traversal of permutations than the depth first
traversal used by GSP, obtained by taking each variable in turn and moving it
to the position in the permutation that optimizes the model score. Results are
given comparing BOSS to several related papers in the literature in terms of
performance, for linear, Gaussian data. In all cases, with the proper parameter
settings, accuracy of BOSS is lifted considerably with respect to competing
approaches. In configurations tested, models with 60 variables are feasible
with large samples out to about an average degree of 12 in reasonable time,
with near-perfect accuracy, and sparse models with an average degree of 4 are
feasible out to about 300 variables on a laptop, again with near-perfect
accuracy. Mixed continuous discrete and all-discrete datasets were also tested.
The mixed data analysis showed advantage for BOSS over GES more apparent at
higher depths with the same score; the discrete data analysis showed a very
small advantage for BOSS over GES with the same score, perhaps not enough to
prefer it.
- Abstract(参考訳): Sparsest Permutation (SP)アルゴリズムは正確だが、実際には9つの変数に制限されている。
ベストオーダースコア検索(best order score search)は、spと同じ精度で、より大きく、より高密度なグラフに対して結果を与える。
BOSS (Best Order Score Search) は、2つの理由によりより正確である: (a) 忠実性よりも弱い「残酷な忠実性」仮定を仮定し、 (b) モデルスコアを最適化する置換の位置に各変数を交互に移動させることによって得られる GSP が使用する深さの第1トラバースとは異なる置換のトラバースを使用する。
結果は、線形ガウスデータに対して、BOSSと文学におけるいくつかの関連論文を比較して得られる。
いずれの場合も、適切なパラメータ設定では、競合するアプローチに対してBOSSの精度が大幅に向上する。
テストされた構成では、60変数のモデルでは、大容量のサンプルで、妥当な時間で平均12度まで、ほぼ完全な精度で実現可能であり、平均4度のスパースモデルは、ほぼ完全な精度で、ラップトップ上で約300変数まで実行可能である。
連続離散データセットと全離散データセットの混合も試験された。
混合データ解析は,GESよりもBOSSの方が高い深度ではより有利であり,離散データ解析では,GESよりもBOSSの方が非常に小さな優位性を示した。
関連論文リスト
- Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - Improved Sparse Ising Optimization [0.0]
本報告では,最大2万変数の長期ベンチマーク問題において,性能が著しく向上したことを示す新しいデータを示す。
速度と精度の組み合わせを先導するのとは対照的に、概念実証の実装は2-4桁の精度で目標に到達した。
このデータは、スパースIsingパフォーマンスフロンティアを、アルゴリズムポートフォリオ、AIツールキット、意思決定システムを強化するために推進するエキサイティングな可能性を示している。
論文 参考訳(メタデータ) (2023-11-15T17:59:06Z) - Fast Scalable and Accurate Discovery of DAGs Using the Best Order Score
Search and Grow-Shrink Trees [2.667401221288548]
有向非巡回グラフ(DAG)学習のためのベストオーダースコアサーチ(BOSS)とグロースシンクツリー(GST)
有向非巡回グラフ(DAG)を学習するためのベストオーダースコアサーチ(BOSS)とGST(Grow-Shrink Tree)を導入する。
論文 参考訳(メタデータ) (2023-10-26T10:03:12Z) - Probabilistic Permutation Graph Search: Black-Box Optimization for
Fairness in Ranking [53.94413894017409]
本稿では、置換グラフの概念に基づいて、置換分布を表現する新しい方法を提案する。
PLと同様に、PPGと呼ばれる分布表現は、公正性のブラックボックス最適化に利用できる。
論文 参考訳(メタデータ) (2022-04-28T20:38:34Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Learning Bayesian Networks that enable full propagation of evidence [0.0]
本稿では,入力変数が依存しているという議論を呼んだ仮定の下で,近年のベイズネットワーク(BN)構造学習の展開について述べる。
これは、証拠の完全な伝播が不可能な複数の解離部分グラフを学習する問題に対処する。
本稿では,この問題に対処する新しいハイブリッド構造学習アルゴリズムであるSayanHを提案する。
論文 参考訳(メタデータ) (2020-04-09T14:44:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。