論文の概要: Structural Dimension Reduction in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2601.08236v1
- Date: Tue, 13 Jan 2026 05:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.072324
- Title: Structural Dimension Reduction in Bayesian Networks
- Title(参考訳): ベイジアンネットワークにおける構造次元低減
- Authors: Pei Heng, Yi Sun, Jianhua Guo,
- Abstract要約: この研究は、ベイズネットワークを最小かつ局所化されたものに崩壊させる、構造次元還元と呼ばれる新しい手法を導入する。
元のネットワークから興味のある変数を含む独特な有向船体を決定することにより、効率的な凸時間アルゴリズムを考案した。
- 参考スコア(独自算出の注目度): 3.38620607316084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a novel technique, named structural dimension reduction, to collapse a Bayesian network onto a minimum and localized one while ensuring that probabilistic inferences between the original and reduced networks remain consistent. To this end, we propose a new combinatorial structure in directed acyclic graphs called the directed convex hull, which has turned out to be equivalent to their minimum localized Bayesian networks. An efficient polynomial-time algorithm is devised to identify them by determining the unique directed convex hulls containing the variables of interest from the original networks. Experiments demonstrate that the proposed technique has high dimension reduction capability in real networks, and the efficiency of probabilistic inference based on directed convex hulls can be significantly improved compared with traditional methods such as variable elimination and belief propagation algorithms. The code of this study is open at \href{https://github.com/Balance-H/Algorithms}{https://github.com/Balance-H/Algorithms} and the proofs of the results in the main body are postponed to the appendix.
- Abstract(参考訳): この研究は、構造次元還元と呼ばれる新しい手法を導入し、ベイズネットワークを最小限かつ局所的に崩壊させ、元のネットワークと縮小されたネットワークの間の確率的推論が一貫していることを保証する。
この目的のために、有向凸包と呼ばれる有向非巡回グラフにおける新しい組合せ構造を提案し、これはそれらの最小局所ベイズネットワークと同値であることが判明した。
元のネットワークから興味のある変数を含む一意の有向凸殻を決定することにより、効率的な多項式時間アルゴリズムを考案した。
実験により,提案手法は実ネットワークにおいて高次元化能力を有しており,有向凸船体に基づく確率的推論の効率は,変数除去や信念伝播アルゴリズムといった従来の手法と比較して著しく向上できることが示された。
本研究のコードは \href{https://github.com/Balance-H/Algorithms}{https://github.com/Balance-H/Algorithms} に公開されており、本研究の結果の証明は付録に延期される。
関連論文リスト
- Walking on the Fiber: A Simple Geometric Approximation for Bayesian Neural Networks [14.632351275859696]
本研究では,後部探査のためのサンプリング手法を再検討する。
本稿では,パラメータ空間の変形を学習し,反復的手法を必要とせずに高速な後続サンプリングを可能にするモデルを提案する。
実験結果から,本手法は後方近似の競合性を実証した。
論文 参考訳(メタデータ) (2025-12-01T10:24:10Z) - Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Bayesian Recurrent Units and the Forward-Backward Algorithm [91.39701446828144]
ベイズの定理を用いることで、ユニットワイド・リカレンスとフォワード・バックワードアルゴリズムに類似した後方再帰を導出する。
その結果得られたベイジアン再帰ユニットは、ディープラーニングフレームワーク内で再帰ニューラルネットワークとして統合することができる。
音声認識の実験は、最先端の繰り返しアーキテクチャの最後に派生したユニットを追加することで、訓練可能なパラメータの点で非常に低コストで性能を向上させることを示唆している。
論文 参考訳(メタデータ) (2022-07-21T14:00:52Z) - An Unbiased Symmetric Matrix Estimator for Topology Inference under
Partial Observability [16.60607849384252]
本稿では,部分観測可能性の枠組みに基づくネットワークトポロジ推論の問題について考察する。
本稿では、ガウス雑音とラプラシアン結合則を持つ対称ネットワークトポロジーのための新しい非バイアス推定器を提案する。
ネットワーク構造を推定するために、ネットワーク推論ガウスアルゴリズムと呼ばれる効果的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-03-29T12:49:25Z) - SCORE: Approximating Curvature Information under Self-Concordant
Regularization [0.0]
本稿では,新たな入力を受信するたびに最小化速度を更新する自己調和正規化アルゴリズム(GGN-SCORE)を提案する。
提案アルゴリズムはヘッセン行列の2階情報構造を利用して計算オーバーヘッドを削減する。
論文 参考訳(メタデータ) (2021-12-14T13:03:04Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Spectral Algorithms for Community Detection in Directed Networks [46.91424250933143]
有向ネットワークに対するD-SCOREアルゴリズムを導入し、クラスタリング前に隣接行列の特異ベクトルの要素ワイド比をとることにより、この効果を低減した。
統計的引用ネットワークにおいて有意な結果が得られたが、その性能に関する厳密な分析は欠如していた。
本稿では,有向次数補正ブロックモデルに対して,このアルゴリズムとその変種に対する理論的保証を確立する。
論文 参考訳(メタデータ) (2020-08-09T21:43:32Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。