論文の概要: Composition-Incremental Learning for Compositional Generalization
- arxiv url: http://arxiv.org/abs/2511.09082v1
- Date: Thu, 13 Nov 2025 01:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.39978
- Title: Composition-Incremental Learning for Compositional Generalization
- Title(参考訳): 合成一般化のための合成-増分学習
- Authors: Zhen Li, Yuwei Wu, Chenchen Jing, Che Sun, Chuanhao Li, Yunde Jia,
- Abstract要約: 理想的なモデルは、漸進的に構成的一般化の能力を徐々に改善することが求められている。
我々は,既存のデータセットを活用するベンチマーク構築パイプラインを開発し,MIT-States-CompILとC-GQA-CompILを生成する。
本稿では,視覚合成器を用いて学習した合成文の視覚表現を合成する擬似再生フレームワークと,整列した原始表現を維持するための言語的原始蒸留機構を提案する。
- 参考スコア(独自算出の注目度): 35.44592461934844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compositional generalization has achieved substantial progress in computer vision on pre-collected training data. Nonetheless, real-world data continually emerges, with possible compositions being nearly infinite, long-tailed, and not entirely visible. Thus, an ideal model is supposed to gradually improve the capability of compositional generalization in an incremental manner. In this paper, we explore Composition-Incremental Learning for Compositional Generalization (CompIL) in the context of the compositional zero-shot learning (CZSL) task, where models need to continually learn new compositions, intending to improve their compositional generalization capability progressively. To quantitatively evaluate CompIL, we develop a benchmark construction pipeline leveraging existing datasets, yielding MIT-States-CompIL and C-GQA-CompIL. Furthermore, we propose a pseudo-replay framework utilizing a visual synthesizer to synthesize visual representations of learned compositions and a linguistic primitive distillation mechanism to maintain aligned primitive representations across the learning process. Extensive experiments demonstrate the effectiveness of the proposed framework.
- Abstract(参考訳): 構成的一般化は、事前コンパイルされたトレーニングデータに対するコンピュータビジョンにおいて大きな進歩を遂げた。
それでも、現実世界のデータはほとんど無限であり、長い尾を持ち、完全には見えていない。
したがって、理想モデルは、漸進的に構成一般化の能力を徐々に改善することが求められている。
本稿では,コンポジションゼロショット学習(CZSL)タスクの文脈において,コンポジション一般化のためのコンポジションインクリメンタルラーニング(CompIL)について検討する。
CompILを定量的に評価するために、既存のデータセットを活用するベンチマーク構築パイプラインを開発し、MIT-States-CompILとC-GQA-CompILを生成する。
さらに,視覚合成器を用いて学習した合成文の視覚表現を合成する擬似再生フレームワークと,学習過程全体にわたって整列した原始表現を維持するための言語的原始蒸留機構を提案する。
大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Does Data Scaling Lead to Visual Compositional Generalization? [21.242714408660508]
構成一般化は単なるデータスケールではなく,データの多様性によってもたらされる。
この構造が効率の鍵であることを証明し、ほとんど観測されていない組み合わせから完全な一般化を可能にする。
論文 参考訳(メタデータ) (2025-07-09T17:59:03Z) - Learning to Substitute Components for Compositional Generalization [70.96410435337967]
そこで我々はCompSubと呼ばれる新しい構成拡張戦略を提案する。
また,CompSubにおけるコンポーネント置換確率の学習を支援するLCS(Learning Component Substitution)フレームワークについても紹介する。
その結果, CompSub, LCS, LCS-ICLのそれぞれ66.5%, 10.3%, 1.4%, 8.8%の改善が見られた。
論文 参考訳(メタデータ) (2025-02-28T08:30:47Z) - Compositional Generalization from First Principles [27.243195680442533]
データ自体よりもデータ生成プロセスの特性としての組成性について検討する。
この再構成により、トレーニング分布とモデルアーキテクチャのサポートのみに関する穏やかな条件を導出することができる。
この結果は、合成一般化の原理的理論的研究の舞台となった。
論文 参考訳(メタデータ) (2023-07-10T19:30:32Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Visually Grounded Concept Composition [31.981204314287282]
我々はこれらを画像に合わせることによって、原始概念と全構成概念の両方の基礎を学ぶ。
そこで本研究では,テキストと画像のマッチング精度を指標として,合成学習がより堅牢なグラウンド化結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-29T00:38:58Z) - Improving Compositional Generalization in Semantic Parsing [54.4720965813889]
オフ・オブ・ディストリビューション(OOD)データへのモデルの一般化は、最近、大きな注目を集めている。
合成一般化のための自然なテストベッドである意味解析における合成一般化について検討する。
論文 参考訳(メタデータ) (2020-10-12T12:34:58Z) - Compositional Generalization in Semantic Parsing: Pre-training vs.
Specialized Architectures [1.8434042562191812]
事前トレーニングは、同等の非事前トレーニングモデルと比較して、パフォーマンスが大幅に向上することを示す。
我々は、中間表現とともに事前学習を用いて、CFQ合成一般化ベンチマークの新たな技術状態を確立する。
論文 参考訳(メタデータ) (2020-07-17T13:34:49Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。