論文の概要: From Bricks to Bridges: Product of Invariances to Enhance Latent Space
Communication
- arxiv url: http://arxiv.org/abs/2310.01211v1
- Date: Mon, 2 Oct 2023 13:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:30:48.490502
- Title: From Bricks to Bridges: Product of Invariances to Enhance Latent Space
Communication
- Title(参考訳): レンガから橋へ:潜在空間通信を強化するための不変性の積
- Authors: Irene Cannistraci, Luca Moschella, Marco Fumero, Valentino Maiorca,
Emanuele Rodol\`a
- Abstract要約: 異なるニューラルネットワークによって学習された表現は、モデルが同様の誘導バイアスの下で訓練されたときに構造的類似性を隠蔽することが観察されている。
我々は,不変成分の積空間を潜在表現の上に構築し,その表現に不変量の集合を直接組み込む汎用的手法を導入する。
我々は,ゼロショット縫合設定において,一貫した遅延類似性および下流性能向上を観察し,分類および再構成タスクに対するソリューションの有効性を検証した。
- 参考スコア(独自算出の注目度): 10.015318634895959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been observed that representations learned by distinct neural networks
conceal structural similarities when the models are trained under similar
inductive biases. From a geometric perspective, identifying the classes of
transformations and the related invariances that connect these representations
is fundamental to unlocking applications, such as merging, stitching, and
reusing different neural modules. However, estimating task-specific
transformations a priori can be challenging and expensive due to several
factors (e.g., weights initialization, training hyperparameters, or data
modality). To this end, we introduce a versatile method to directly incorporate
a set of invariances into the representations, constructing a product space of
invariant components on top of the latent representations without requiring
prior knowledge about the optimal invariance to infuse. We validate our
solution on classification and reconstruction tasks, observing consistent
latent similarity and downstream performance improvements in a zero-shot
stitching setting. The experimental analysis comprises three modalities
(vision, text, and graphs), twelve pretrained foundational models, eight
benchmarks, and several architectures trained from scratch.
- Abstract(参考訳): 異なるニューラルネットワークによって学習された表現は、モデルが同様の誘導バイアスの下で訓練されたときに構造的類似性を隠蔽することが観察されている。
幾何学的な観点では、変換のクラスとそれらの表現をつなぐ関連する不変性を特定することは、マージ、縫い合わせ、異なる神経モジュールの再利用といったアプリケーションをアンロックする上で基本である。
しかしながら、事前のタスク固有の変換の推定は、いくつかの要因(重みの初期化、トレーニングハイパーパラメーター、データモダリティなど)によって困難で費用がかかる可能性がある。
そこで本研究では,不変成分の積空間を潜在表現の上に構築し,不変成分の和の最適不変性に関する事前知識を必要とせずに直接表現に不変成分の組を組み込む汎用的な手法を提案する。
我々は,ゼロショットステッチング設定において,分類と再構築のタスク,一貫性のある潜伏性の観察,下流性能の向上に関するソリューションを検証する。
実験分析は、3つのモード(ビジョン、テキスト、グラフ)、12の事前訓練された基礎モデル、8のベンチマーク、およびいくつかのアーキテクチャで構成されている。
関連論文リスト
- ConsistentFeature: A Plug-and-Play Component for Neural Network Regularization [0.32885740436059047]
過パラメータ化されたニューラルネットワークモデルは、トレーニングとテストセットの間に大きなパフォーマンスの相違をもたらすことが多い。
モデルは異なるデータセットで異なる表現を学習する。
適応的手法であるConsistentFeatureを提案し、同じトレーニングセットのランダムなサブセット間で特徴差を制約することでモデルを正規化する。
論文 参考訳(メタデータ) (2024-12-02T13:21:31Z) - Transformers are uninterpretable with myopic methods: a case study with
bounded Dyck grammars [36.780346257061495]
解釈可能性法は、訓練されたモデルによって実装されたアルゴリズムを理解することを目的としている。
私たちは、モデルの個々の部分にのみフォーカスするメソッドの批判的な見解を取ります。
論文 参考訳(メタデータ) (2023-12-03T15:34:46Z) - Latent Space Translation via Semantic Alignment [29.2401314068038]
我々は、異なるニューラルモジュールから学んだ表現が、異なる事前学習されたネットワーク間でどのように変換されるかを示す。
提案手法は, 与えられた2つの潜在空間間の変換を直接推定することにより, 付加的な訓練を伴わずに, エンコーダとデコーダを効果的に縫合できる。
特に、ゼロショットテクストテキストエンコーダやビジョンデコーダ、あるいはリバーサがいかに可能かを示し、このマルチモーダル環境で驚くほど優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-01T17:12:00Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - A Simple Strategy to Provable Invariance via Orbit Mapping [14.127786615513978]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変にする方法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
論文 参考訳(メタデータ) (2022-09-24T03:40:42Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。