論文の概要: Learning by Analogy: A Causal Framework for Composition Generalization
- arxiv url: http://arxiv.org/abs/2512.10669v1
- Date: Thu, 11 Dec 2025 14:16:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.402769
- Title: Learning by Analogy: A Causal Framework for Composition Generalization
- Title(参考訳): アナロジーによる学習: 構成一般化のための因果的枠組み
- Authors: Lingjing Kong, Shaoan Xie, Yang Jiao, Yetian Chen, Yanhui Guo, Simone Shao, Yan Gao, Guangyi Chen, Kun Zhang,
- Abstract要約: 構成一般化には,高次概念を基本的,低次概念に分解する必要があることを示す。
因果モジュラリティと最小限の変更の原則を用いて、これらの直感的なプロセスを形式化する。
提案手法は,合成概念間の複雑な関係を支持する合成一般化を可能にすることを実証する。
- 参考スコア(独自算出の注目度): 31.406412141788635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositional generalization -- the ability to understand and generate novel combinations of learned concepts -- enables models to extend their capabilities beyond limited experiences. While effective, the data structures and principles that enable this crucial capability remain poorly understood. We propose that compositional generalization fundamentally requires decomposing high-level concepts into basic, low-level concepts that can be recombined across similar contexts, similar to how humans draw analogies between concepts. For example, someone who has never seen a peacock eating rice can envision this scene by relating it to their previous observations of a chicken eating rice. In this work, we formalize these intuitive processes using principles of causal modularity and minimal changes. We introduce a hierarchical data-generating process that naturally encodes different levels of concepts and their interaction mechanisms. Theoretically, we demonstrate that this approach enables compositional generalization supporting complex relations between composed concepts, advancing beyond prior work that assumes simpler interactions like additive effects. Critically, we also prove that this latent hierarchical structure is provably recoverable (identifiable) from observable data like text-image pairs, a necessary step for learning such a generative process. To validate our theory, we apply insights from our theoretical framework and achieve significant improvements on benchmark datasets.
- Abstract(参考訳): 構成的一般化 – 学習した概念の新たな組み合わせを理解して生成する能力 – によって、モデルが限られた経験を超えて能力を拡張できるようになる。
有効ではあるが、この重要な能力を実現するデータ構造と原則はいまだに理解されていない。
構成一般化は,概念間の類似性を引き出すのと同じように,基本的,低レベルの概念に分解する必要があることを提案する。
例えば、ニワトリがご飯を食べるのを見たことがない人は、かつてのニワトリの飯の観察に関連付けて、この場面を想像することができる。
本研究では、因果モジュラリティと最小限の変更の原理を用いて、これらの直感的なプロセスを定式化する。
本稿では,概念の異なるレベルとその相互作用機構を自然にエンコードする階層的データ生成プロセスを提案する。
理論的には、この手法が構成概念間の複雑な関係を支持する構成的一般化を可能にし、加法効果のような単純な相互作用を仮定する事前の作業を超えて前進することを実証する。
批判的に、この潜在階層構造は、テキストと画像のペアのような観測可能なデータから確実に回復可能であることを証明し、そのような生成過程を学ぶために必要なステップである。
理論を検証するために、我々の理論フレームワークから洞察を適用し、ベンチマークデータセットに大幅な改善を施す。
関連論文リスト
- Nonparametric Identification of Latent Concepts [17.996329262929113]
人間の学習の基本である比較の認知メカニズムは、マシンがデータの基礎となる真の概念を回復する上でも不可欠である、と我々は主張する。
具体的には、複数の観察クラスを持つ概念の識別可能性に関する理論的枠組みを開発することを目的とする。
クラス間で十分な多様性があれば、特定の概念型を仮定せずに隠れた概念を識別できることが示される。
論文 参考訳(メタデータ) (2025-09-30T18:13:53Z) - Swing-by Dynamics in Concept Learning and Compositional Generalization [41.84127616263314]
本稿では,モデルが学習し,構造的に整理されたセントロイドとガウス混合体上でのアイデンティティマッピングを学習するSIMタスクを提案する。
我々は、このSIMタスクでトレーニングされたニューラルネットワークの学習力学を数学的に解析し、その単純さにもかかわらず、SIMの学習力学が重要な経験的観察を捉え、説明するのに役立っていることを示す。
私たちの理論はまた、トレーニングの初期段階におけるテスト損失の非単調学習ダイナミクスの新しいメカニズムを見つけるなど、いくつかの新しい洞察を提供する。
論文 参考訳(メタデータ) (2024-10-10T18:58:29Z) - Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - When does compositional structure yield compositional generalization? A kernel theory [0.0]
固定された構成的表現を持つカーネルモデルにおける合成一般化の理論を示す。
学習データのバイアスから生じる合成一般化における新しい障害モードを同定する。
本研究は, 学習データの統計的構造が構成一般化にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-05-26T00:50:11Z) - Improving Compositional Generalization Using Iterated Learning and
Simplicial Embeddings [19.667133565610087]
構成の一般化は人間には容易だが、ディープニューラルネットワークには難しい。
簡単な埋め込みモデルで繰り返し学習を行うことにより、この能力を向上させることを提案する。
このような変化の組み合わせは、他のアプローチよりも構成の一般化を改善することが示される。
論文 参考訳(メタデータ) (2023-10-28T18:30:30Z) - Provable Compositional Generalization for Object-Centric Learning [55.658215686626484]
既知の概念の新規な構成に一般化する学習表現は、人間と機械の知覚のギャップを埋めるのに不可欠である。
本稿では,デコーダの構造的仮定を満足し,エンコーダとデコーダの整合性を強制するオートエンコーダが,構成を確実に一般化するオブジェクト中心表現を学習することを示す。
論文 参考訳(メタデータ) (2023-10-09T01:18:07Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - A Probabilistic-Logic based Commonsense Representation Framework for
Modelling Inferences with Multiple Antecedents and Varying Likelihoods [5.87677276882675]
コモンセンス・ナレッジグラフ(英: Commonsense knowledge-graphs、CKG)は、テキストや環境入力で「推論」でき、知覚を超えた推論ができる機械を構築するための重要なリソースである。
本研究は,コモンセンス知識の表現方法として, (i) 複合的推論知識をモデル化し,様々な可能性で概念的信念を表現するための確率論的論理表現スキーム, (ii) 健全な概念関連関係を同定し,異なる概念レベルで信念を整理する階層的概念オントロジーを取り入れることにより, コモンセンス知識をより良く表現することができるかを検討する。
論文 参考訳(メタデータ) (2022-11-30T08:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。