論文の概要: From Classical Probabilistic Latent Variable Models to Modern Generative AI: A Unified Perspective
- arxiv url: http://arxiv.org/abs/2508.16643v1
- Date: Mon, 18 Aug 2025 11:02:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.077357
- Title: From Classical Probabilistic Latent Variable Models to Modern Generative AI: A Unified Perspective
- Title(参考訳): 古典的確率潜在変数モデルから現代生成AIへ:統一的な視点
- Authors: Tianhua Chen,
- Abstract要約: 生成人工知能(AI)は、現在最先端のシステムを支える。
様々なアーキテクチャにもかかわらず、多くの人が確率的潜在変数モデル(PLVM)の共通基盤を共有している。
本稿では,PLVMパラダイム内での古典的手法と近代的手法の融合による統一的な視点を示す。
- 参考スコア(独自算出の注目度): 1.482314366716538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From large language models to multi-modal agents, Generative Artificial Intelligence (AI) now underpins state-of-the-art systems. Despite their varied architectures, many share a common foundation in probabilistic latent variable models (PLVMs), where hidden variables explain observed data for density estimation, latent reasoning, and structured inference. This paper presents a unified perspective by framing both classical and modern generative methods within the PLVM paradigm. We trace the progression from classical flat models such as probabilistic PCA, Gaussian mixture models, latent class analysis, item response theory, and latent Dirichlet allocation, through their sequential extensions including Hidden Markov Models, Gaussian HMMs, and Linear Dynamical Systems, to contemporary deep architectures: Variational Autoencoders as Deep PLVMs, Normalizing Flows as Tractable PLVMs, Diffusion Models as Sequential PLVMs, Autoregressive Models as Explicit Generative Models, and Generative Adversarial Networks as Implicit PLVMs. Viewing these architectures under a common probabilistic taxonomy reveals shared principles, distinct inference strategies, and the representational trade-offs that shape their strengths. We offer a conceptual roadmap that consolidates generative AI's theoretical foundations, clarifies methodological lineages, and guides future innovation by grounding emerging architectures in their probabilistic heritage.
- Abstract(参考訳): 大規模言語モデルからマルチモーダルエージェントに至るまで、ジェネレーティブ人工知能(AI)は最先端のシステムを支える。
様々なアーキテクチャにもかかわらず、多くの人は確率潜在変数モデル(PLVM)の共通基盤を共有しており、隠れた変数は密度推定、潜伏推論、構造化推論の観測データを説明する。
本稿では,PLVMパラダイム内での古典的手法と近代的手法の融合による統一的な視点を示す。
確率的PCA,ガウス混合モデル,潜時クラス解析,アイテム応答理論,潜時ディリクレ割り当てといった古典的フラットモデルから,隠れマルコフモデル,ガウスHMM,線形力学系などの逐次的拡張を経て,現代の深層アーキテクチャへと進展する。
これらのアーキテクチャを共通の確率論的分類の下で見ることは、共通の原則、異なる推論戦略、そしてそれらの強みを形成する表現的トレードオフを明らかにする。
我々は、生成的AIの理論的基盤を強化し、方法論的系統を明確にし、新しいアーキテクチャを確率論的遺産に根ざして将来のイノベーションを導く概念的なロードマップを提供する。
関連論文リスト
- Deep generative models as the probability transformation functions [0.0]
本稿では,深部生成モデルを確率変換関数とみなす統一理論的視点を紹介する。
単純な事前定義された分布を複雑なターゲットデータ分布に変換することによって、それらすべてが根本的に動作することを示す。
論文 参考訳(メタデータ) (2025-06-20T17:22:23Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Simulation of emergence in artificial societies: a practical model-based
approach with the EB-DEVS formalism [0.11470070927586014]
本稿では,創発特性のモデリング,シミュレーション,ライブ識別に適した新しいフォーマリズムであるEB-DEVSを適用する。
この研究は、コミュニケーション構造をモデル化するためのアプローチの簡潔さとコンパクトさに関するケーススタディ駆動の証拠を提供する。
論文 参考訳(メタデータ) (2021-10-15T15:55:16Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Struct-MMSB: Mixed Membership Stochastic Blockmodels with Interpretable
Structured Priors [13.712395104755783]
混合メンバシップブロックモデル(MMSB)は、コミュニティ検出とネットワーク生成のための一般的なフレームワークである。
最近開発された統計リレーショナル学習モデルであるヒンジロスマルコフ確率場(HL-MRF)を用いた柔軟なMMSBモデル、textitStruct-MMSBを提案する。
我々のモデルは、観測された特徴と会員分布の複雑な組み合わせとして符号化された有意義な潜伏変数を用いて、実世界のネットワークにおける潜伏特性を学習することができる。
論文 参考訳(メタデータ) (2020-02-21T19:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。