論文の概要: CtD: Composition through Decomposition in Emergent Communication
- arxiv url: http://arxiv.org/abs/2601.10169v1
- Date: Thu, 15 Jan 2026 08:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.053607
- Title: CtD: Composition through Decomposition in Emergent Communication
- Title(参考訳): CtD:創発的コミュニケーションにおける分解による構成
- Authors: Boaz Carmeli, Ron Meir, Yonatan Belinkov,
- Abstract要約: 本研究は, 人工神経エージェントが合成一般化を利用して, 未確認画像を記述する方法を示す。
我々は、余分なトレーニングを必要とせずに、Composeのステップでの一般化がゼロショットで達成されるケースを観察する。
- 参考スコア(独自算出の注目度): 50.742602755320654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositionality is a cognitive mechanism that allows humans to systematically combine known concepts in novel ways. This study demonstrates how artificial neural agents acquire and utilize compositional generalization to describe previously unseen images. Our method, termed "Composition through Decomposition", involves two sequential training steps. In the 'Decompose' step, the agents learn to decompose an image into basic concepts using a codebook acquired during interaction in a multi-target coordination game. Subsequently, in the 'Compose' step, the agents employ this codebook to describe novel images by composing basic concepts into complex phrases. Remarkably, we observe cases where generalization in the `Compose' step is achieved zero-shot, without the need for additional training.
- Abstract(参考訳): 構成性は、人間が新しい方法で既知の概念を体系的に組み合わせることができる認知メカニズムである。
本研究は, 人工神経エージェントが合成一般化を利用して, 未確認画像を記述する方法を示す。
提案手法は「分解による合成」と呼ばれ,2段階の逐次訓練を含む。
Decompose'ステップでは、エージェントは、マルチターゲットコーディネートゲームにおいて、インタラクション中に取得したコードブックを使用して、イメージを基本的な概念に分解する。
その後、「合成」段階において、エージェントはこのコードブックを使用して、基本的な概念を複雑なフレーズに構成することで、新しいイメージを記述する。
注目すべきは、追加のトレーニングを必要とせず、‘Compose’ステップでの一般化がゼロショットで達成されるケースを観察することである。
関連論文リスト
- PartComposer: Learning and Composing Part-Level Concepts from Single-Image Examples [31.17687322390452]
PartComposerは、単一イメージの例から学ぶ部分レベルの概念のフレームワークである。
本稿では,一発データ不足に対処するために,多様な部分合成を生成する動的データ合成パイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-03T15:43:28Z) - IP-Composer: Semantic Composition of Visual Concepts [49.18472621931207]
合成画像生成のためのトレーニング不要アプローチであるIP-Composerを提案する。
提案手法は,入力画像のCLIP埋め込みを条件とした新しい画像を生成するIP-Adapter上に構築する。
テキストから特定された概念固有のCLIP-サブスペースに、複数の入力画像の投影から縫い付けられた複合埋め込みを製作することで、このアプローチを複数の視覚的入力に拡張する。
論文 参考訳(メタデータ) (2025-02-19T18:49:31Z) - A Compressive-Expressive Communication Framework for Compositional Representations [0.6937243101289334]
本稿では,事前学習モデルから学習した表現の合成性を誘導する自己教師型フレームワークCELEBIを紹介する。
提案手法は,Shapes3DおよびMPI3Dデータセット上での学習メッセージの効率性と構成性を向上する。
この研究は、単純性に基づく帰納的バイアスから構造化された一般化可能な通信プロトコルが出現する新たな理論的および実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-01-31T14:46:11Z) - Learning Disentangled Prompts for Compositional Image Synthesis [27.99470176603746]
本研究では,事前学習した画像生成モデルに1つの画像から新しいスタイルや概念を教え,新しい画像を合成する問題について検討する。
いくつかの画像から意味(クラス)とドメイン(スタイル)の非絡み合ったプロンプトを学習する新規なソースクラス蒸留ビジュアルプロンプトを提案する。
論文 参考訳(メタデータ) (2023-06-01T14:56:37Z) - Learning Attention Propagation for Compositional Zero-Shot Learning [71.55375561183523]
コンポジションアテンション・プロパゲード・エンベディング(CAPE)と呼ばれる新しい手法を提案する。
CAPEは、この構造を識別し、それらの間の知識を伝播して、目に見えないすべての構成に対するクラス埋め込みを学ぶ。
提案手法は,3つの公開ベンチマークに対して,新しい最先端のベンチマークを設定するために,従来のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T19:44:11Z) - AI Illustrator: Translating Raw Descriptions into Images by Prompt-based
Cross-Modal Generation [61.77946020543875]
本稿では,複雑な意味論による生の記述を意味的に対応する画像に翻訳するフレームワークを提案する。
本フレームワークは,テキスト埋め込みから画像埋め込みへのプロンプトに基づくプロジェクションモジュールと,StyleGAN上に構築された適応画像生成モジュールの2つのコンポーネントから構成される。
本手法は,事前学習モデルに適合し,複雑な記述を処理でき,外部のペアデータを必要としない。
論文 参考訳(メタデータ) (2022-09-07T13:53:54Z) - Visually Grounded Concept Composition [31.981204314287282]
我々はこれらを画像に合わせることによって、原始概念と全構成概念の両方の基礎を学ぶ。
そこで本研究では,テキストと画像のマッチング精度を指標として,合成学習がより堅牢なグラウンド化結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-29T00:38:58Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Learning Graph Embeddings for Compositional Zero-shot Learning [73.80007492964951]
合成ゼロショット学習では、観察された視覚的原始状態の見えない構成を認識することが目的である。
本稿では,画像特徴と視覚的プリミティブの潜在表現をエンドツーエンドに学習するCGEという新しいグラフ定式化を提案する。
概念間のセマンティクスを符号化する共同互換性を学習することにより、WordNetのような外部知識ベースに頼ることなく、構成を見えないように一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T10:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。