論文の概要: Soft Tensor Product Representations for Fully Continuous, Compositional Visual Representations
- arxiv url: http://arxiv.org/abs/2412.04671v1
- Date: Thu, 05 Dec 2024 23:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:21.038003
- Title: Soft Tensor Product Representations for Fully Continuous, Compositional Visual Representations
- Title(参考訳): 完全連続合成視覚表現のためのソフトテンソル製品表現
- Authors: Bethia Sun, Maurice Pagnucco, Yang Song,
- Abstract要約: コネクショナリストシステムでは、変化の因子(FoV)を明示的に分離した表現を生成することによって、このニーズに対処するために、非絡み合いの分野が出現している。
我々は,本研究で提案する新タイプの *continuous* 合成表現*Soft TPR* と,理論的な原理を持つアーキテクチャ*Soft TPR Autoencoder* を提案し,ソフト TPR の学習に特化して設計する。
視覚的表現学習領域において、我々のソフトTPRは、記号的構成表現よりも幅広い利点を提示する。
- 参考スコア(独自算出の注目度): 13.306125510884563
- License:
- Abstract: Since the inception of the classicalist vs. connectionist debate, it has been argued that the ability to systematically combine symbol-like entities into compositional representations is crucial for human intelligence. In connectionist systems, the field of disentanglement has emerged to address this need by producing representations with explicitly separated factors of variation (FoV). By treating the overall representation as a *string-like concatenation* of the inferred FoVs, however, disentanglement provides a fundamentally *symbolic* treatment of compositional structure, one inherently at odds with the underlying *continuity* of deep learning vector spaces. We hypothesise that this symbolic-continuous mismatch produces broadly suboptimal performance in deep learning models that learn or use such representations. To fully align compositional representations with continuous vector spaces, we extend Smolensky's Tensor Product Representation (TPR) and propose a new type of inherently *continuous* compositional representation, *Soft TPR*, along with a theoretically-principled architecture, *Soft TPR Autoencoder*, designed specifically for learning Soft TPRs. In the visual representation learning domain, our Soft TPR confers broad benefits over symbolic compositional representations: state-of-the-art disentanglement and improved representation learner convergence, along with enhanced sample efficiency and superior low-sample regime performance for downstream models, empirically affirming the value of our inherently continuous compositional representation learning framework.
- Abstract(参考訳): 古典主義者対コネクショナリスト論争の発端から、記号のような実体を構成表現に体系的に結合する能力は人間の知性にとって重要であると論じられている。
コネクショナリストシステムでは、変化の因子(FoV)を明示的に分離した表現を生成することによって、このニーズに対処するために、非絡み合いの分野が出現している。
しかし、その全体表現を推論されたFoVの *string-like concatenation* として扱うことで、非絡み合いは、基本的には構成構造の *symbolic* の扱いを提供し、深層学習ベクトル空間の *continuity* と本質的には相反する。
この記号連続ミスマッチは、そのような表現を学習または使用するディープラーニングモデルにおいて、幅広い準最適性能をもたらすと仮定する。
連続ベクトル空間と合成表現を完全に整合させるため、SmolenskyのTensor Product Representation (TPR)を拡張して、Soft TPRを学習するために特別に設計された理論的に原理化されたアーキテクチャ*Soft TPR Autoencoder*とともに、本質的に*連続*の合成表現*Soft TPR*を提案する。
視覚的表現学習領域において、我々のソフトTPRは、表現表現表現に対する幅広い利点を提示する: 最先端の非絡み合いと表現学習の収束の改善、および下流モデルに対するサンプル効率の向上と、より優れた低サンプル状態性能、そして、本質的な連続的な構成表現学習フレームワークの価値を実証的に裏付ける。
関連論文リスト
- Systematic Abductive Reasoning via Diverse Relation Representations in Vector-symbolic Architecture [10.27696004820717]
ベクトルシンボリックアーキテクチャ(VSA)における多様な関係表現(Rel-SAR)を持つ体系的帰納的推論モデルを提案する。
記号的推論ポテンシャルを持つ表現を導出するために、様々な種類の原子ベクトルが数値的、周期的、論理的意味論を表すだけでなく、構造化された高次元表現(S)も導入する。
体系的推論のために,これらの関係表現を統合する統一フレームワークにおいて,新しい数値および論理関数を提案し,規則の推論と一般化の実行を行う。
論文 参考訳(メタデータ) (2025-01-21T05:17:08Z) - NeSyCoCo: A Neuro-Symbolic Concept Composer for Compositional Generalization [17.49136753589057]
NeSyCoCoは、シンボリック表現を生成し、それらを微分可能なニューラル計算にマッピングする、ニューロシンボリックフレームワークである。
我々のフレームワークは、ReaSCANとCLEVR-CoGenT合成一般化ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2024-12-20T05:48:58Z) - Learning Visual-Semantic Subspace Representations for Propositional Reasoning [49.17165360280794]
本稿では,特定の意味構造に適合する視覚表現を学習するための新しい手法を提案する。
我々のアプローチは、新しい核規範に基づく損失に基づいている。
部分空間格子におけるセマンティクスのスペクトル幾何学を最小エンコードしていることを示す。
論文 参考訳(メタデータ) (2024-05-25T12:51:38Z) - Generalized Holographic Reduced Representations [6.161066669674775]
一般ホログラフィックリダクション(GHRR)はフーリエホログラフィックリダクション(FHRR)の拡張である
GHRRは柔軟で非可換なバインディング操作を導入し、複雑なデータ構造のエンコーディングを改善する。
論文 参考訳(メタデータ) (2024-05-15T20:37:48Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - DiffCloth: Diffusion Based Garment Synthesis and Manipulation via
Structural Cross-modal Semantic Alignment [124.57488600605822]
クロスモーダルな衣料品の合成と操作は、ファッションデザイナーが衣料品を作る方法に大きな恩恵をもたらすだろう。
クロスモーダルな衣服合成と操作のための拡散型パイプラインDiffClothを紹介する。
CM-Fashionベンチマークの実験により、DiffClothはどちらも最先端の衣服合成結果を得ることが示された。
論文 参考訳(メタデータ) (2023-08-22T05:43:33Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Decomposed Soft Prompt Guided Fusion Enhancing for Compositional
Zero-Shot Learning [15.406125901927004]
本稿では、視覚言語モデル(VLM)を組み込んで、不明瞭な合成認識を実現することによって、DFSP(Decomposed Fusion with Soft Prompt)1という新しいフレームワークを提案する。
具体的には、DFSPは学習可能なソフトプロンプトと状態とオブジェクトのベクトル結合を構築し、それらの結合表現を確立する。
さらに、言語とイメージブランチの間にクロスモーダル融合モジュールが設計されており、画像の特徴ではなく、言語機能間で状態とオブジェクトを分解する。
論文 参考訳(メタデータ) (2022-11-19T12:29:12Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。