論文の概要: Intervening to learn and compose disentangled representations
- arxiv url: http://arxiv.org/abs/2507.04754v1
- Date: Mon, 07 Jul 2025 08:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.331068
- Title: Intervening to learn and compose disentangled representations
- Title(参考訳): 不整合表現の学習と構成の介入
- Authors: Alex Markham, Jeri A. Chang, Isaac Hirsch, Liam Solus, Bryon Aragam,
- Abstract要約: 本稿では,非絡み付き潜在構造を同時に学習する任意表現型生成モデルの学習手法を提案する。
これは、任意の複雑な既存のデコーダブロックのヘッドに単純なデコーダのみのモジュールを追加することで実現される。
因果的グラフィカルモデルへの介入の概念に触発されて、我々のモジュールはトレーニング中にアーキテクチャを選択的に修正し、異なるコンテキストでコンパクトなジョイントモデルを学ぶことができる。
- 参考スコア(独自算出の注目度): 8.452837716541705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In designing generative models, it is commonly believed that in order to learn useful latent structure, we face a fundamental tension between expressivity and structure. In this paper we challenge this view by proposing a new approach to training arbitrarily expressive generative models that simultaneously learn disentangled latent structure. This is accomplished by adding a simple decoder-only module to the head of an existing decoder block that can be arbitrarily complex. The module learns to process concept information by implicitly inverting linear representations from an encoder. Inspired by the notion of intervention in causal graphical models, our module selectively modifies its architecture during training, allowing it to learn a compact joint model over different contexts. We show how adding this module leads to disentangled representations that can be composed for out-of-distribution generation. To further validate our proposed approach, we prove a new identifiability result that extends existing work on identifying structured representations in nonlinear models.
- Abstract(参考訳): 生成モデルの設計において、有用な潜在構造を学習するために、表現性と構造の間に根本的な緊張が生じると一般的に信じられている。
本稿では,非絡み付き潜在構造を同時に学習する任意の表現型生成モデルを学習するための新しいアプローチを提案することで,この考え方に挑戦する。
これは、任意の複雑な既存のデコーダブロックのヘッドに単純なデコーダのみのモジュールを追加することで実現される。
モジュールは、エンコーダから線形表現を暗黙的に反転させることで概念情報を処理することを学ぶ。
因果的グラフィカルモデルへの介入の概念に触発されて、我々のモジュールはトレーニング中にアーキテクチャを選択的に修正し、異なるコンテキストでコンパクトなジョイントモデルを学ぶことができる。
我々は,このモジュールの追加が,配布外生成のために構成できる不整合表現にどのように結びつくかを示す。
提案手法をさらに検証するため,非線形モデルにおける構造的表現の同定に関する既存の研究を拡張した新たな識別可能性の証明を行った。
関連論文リスト
- Mining Frequent Structures in Conceptual Models [2.625701175074974]
本稿では,概念モデルにおける頻繁な構造発見問題に対する一般的なアプローチを提案する。
我々は、広く使われている2つの概念モデリング言語に焦点をあてて、我々のアプローチを実装した。
このツールは、効果的なモデリングプラクティスと非効果的なモデリングプラクティスの両方を特定するのに使うことができる。
論文 参考訳(メタデータ) (2024-06-11T10:24:02Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Structure by Architecture: Structured Representations without
Regularization [31.75200752252397]
生成モデルなどの下流タスクにオートエンコーダを用いた自己教師型表現学習の課題について検討する。
我々はアグレッシブな正規化を必要とせずに構造化表現を学習できる新しいオートエンコーダアーキテクチャを設計する。
これらのモデルが、生成、絡み合い、外挿を含む様々な下流タスクの結果を改善する表現をいかに学習するかを実証する。
論文 参考訳(メタデータ) (2020-06-14T04:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。