論文の概要: Vectorized Bayesian Inference for Latent Dirichlet-Tree Allocation
- arxiv url: http://arxiv.org/abs/2602.18795v1
- Date: Sat, 21 Feb 2026 11:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.317397
- Title: Vectorized Bayesian Inference for Latent Dirichlet-Tree Allocation
- Title(参考訳): 遅発性ジリクレ・トレー転位に対するベクトルベイズ推定法
- Authors: Zheng Wang, Nizar Bouguila,
- Abstract要約: LDAの一般化であるLDTA(Latent Dirichlet-Tree Allocation)の枠組みを紹介する。
LDTAはLDAの生成構造を保っているが、トピックの比率よりも表現的、木構造的な先行を可能にする。
- 参考スコア(独自算出の注目度): 25.728925283052217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent Dirichlet Allocation (LDA) is a foundational model for discovering latent thematic structure in discrete data, but its Dirichlet prior cannot represent the rich correlations and hierarchical relationships often present among topics. We introduce the framework of Latent Dirichlet-Tree Allocation (LDTA), a generalization of LDA that replaces the Dirichlet prior with an arbitrary Dirichlet-Tree (DT) distribution. LDTA preserves LDA's generative structure but enables expressive, tree-structured priors over topic proportions. To perform inference, we develop universal mean-field variational inference and Expectation Propagation, providing tractable updates for all DT. We reveal the vectorized nature of the two inference methods through theoretical development, and perform fully vectorized, GPU-accelerated implementations. The resulting framework substantially expands the modeling capacity of LDA while maintaining scalability and computational efficiency.
- Abstract(参考訳): ラテント・ディリクレ・アロケーション(LDA)は、離散データにおける潜在テーマ構造を発見するための基礎モデルであるが、そのディリクレ・アロケーションは、トピック間でしばしば存在するリッチな相関や階層的な関係を表現できない。
LDAの一般化であるLDTA(Latent Dirichlet-Tree Allocation)のフレームワークを導入し、ディリクレを任意のディリクレ-Tree(DT)分布に置き換える。
LDTAはLDAの生成構造を保っているが、トピックの比率よりも表現的、木構造的な先行を可能にする。
提案手法は,全DTに対してトラクタブルな更新を提供するとともに,予測と予測の普遍的な平均場変動予測を行う。
本稿では,2つの推論手法のベクトル化特性を理論的発展を通して明らかにし,完全にベクトル化されたGPU高速化実装を実行する。
結果として得られるフレームワークは、スケーラビリティと計算効率を維持しながら、LDAのモデリング能力を大幅に拡張する。
関連論文リスト
- Interpretability-Guided Bi-objective Optimization: Aligning Accuracy and Explainability [0.0]
IGBOがDAG(Directed Acyclic Graph)として特徴重要階層を符号化
中心極限定理に基づくDAGの構成は、エッジ方向の決定の統計的妥当性を保証する。
DAG制約を最小限の精度で強制するIGBOの有効性は、標準正規化基準よりも優れていた。
論文 参考訳(メタデータ) (2026-01-02T11:32:00Z) - Probabilistic Modeling of Latent Agentic Substructures in Deep Neural Networks [7.4145864319417285]
ニューラルモデルに対する確率論的モデリングに基づくインテリジェントエージェンシーの理論を開発する。
線形プールや連立結果空間では厳密な一様性は不可能であるが、3つ以上の結果が得られる。
論文 参考訳(メタデータ) (2025-09-08T13:55:01Z) - CTRLS: Chain-of-Thought Reasoning via Latent State-Transition [57.51370433303236]
チェーン・オブ・シント(CoT)推論は、大規模な言語モデルで複雑な問題を解釈可能な中間ステップに分解することを可能にする。
我々は,遅延状態遷移を伴うマルコフ決定プロセス(MDP)としてCoT推論を定式化するフレームワークであるgroundingSを紹介する。
我々は、ベンチマーク推論タスクにおける推論精度、多様性、探索効率の改善を示す。
論文 参考訳(メタデータ) (2025-07-10T21:32:18Z) - Learning Time-Aware Causal Representation for Model Generalization in Evolving Domains [50.66049136093248]
動的因果要因と因果機構のドリフトを組み込んだ時間認識型構造因果モデル(SCM)を開発した。
本研究では,時間領域毎に最適な因果予測値が得られることを示す。
合成と実世界の両方のデータセットの結果から,SynCは時間的一般化性能に優れることが示された。
論文 参考訳(メタデータ) (2025-06-21T14:05:37Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Implicit Semantic Augmentation for Distance Metric Learning in Domain
Generalization [25.792285194055797]
ドメイン一般化(DG)は、1つ以上の異なるが関連するソースドメインのモデルを、目に見えないターゲットドメインに一般化することを目的としている。
既存のDG手法は、モデルの一般化能力のために、ソースドメインの多様性を促進する。
この研究は、特徴空間における暗黙のセマンティック拡張を適用して、ソースドメインの多様性を捉える。
論文 参考訳(メタデータ) (2022-08-02T11:37:23Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Inference-InfoGAN: Inference Independence via Embedding Orthogonal Basis
Expansion [2.198430261120653]
解離学習は、生成モデルが一般的な戦略である独立かつ解釈可能な潜在変数を構築することを目的としている。
本稿では,直交基底拡張(OBE)をInfoGANネットワークに組み込むことで,新しいGANベースの非絡み合いフレームワークを提案する。
我々の推論情報GANは、モデル微調整なしで、FactVAE、分離されたferenceAttribute Predictability(SAP)、Mutual Information Gap(MIG)、およびVP(VP)の指標で高い歪みスコアを得る。
論文 参考訳(メタデータ) (2021-10-02T11:54:23Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。