論文の概要: Generalization properties of contrastive world models
- arxiv url: http://arxiv.org/abs/2401.00057v1
- Date: Fri, 29 Dec 2023 19:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 19:03:42.349769
- Title: Generalization properties of contrastive world models
- Title(参考訳): コントラスト世界モデルの一般化特性
- Authors: Kandan Ramakrishnan, R. James Cotton, Xaq Pitkow, Andreas S. Tolias
- Abstract要約: 我々は、対照的な世界モデルの一般化特性について広範な研究を行う。
実験の結果, 異なるOODテストの下では, 対照的な世界モデルでは一般化できないことがわかった。
我々の研究は、一般化のためのオブジェクト中心表現の重要性を強調し、現在のモデルは人間レベルの一般化に必要な表現を学習する能力に制限されている。
- 参考スコア(独自算出の注目度): 10.806958747213976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on object-centric world models aim to factorize representations
in terms of objects in a completely unsupervised or self-supervised manner.
Such world models are hypothesized to be a key component to address the
generalization problem. While self-supervision has shown improved performance
however, OOD generalization has not been systematically and explicitly tested.
In this paper, we conduct an extensive study on the generalization properties
of contrastive world model. We systematically test the model under a number of
different OOD generalization scenarios such as extrapolation to new object
attributes, introducing new conjunctions or new attributes. Our experiments
show that the contrastive world model fails to generalize under the different
OOD tests and the drop in performance depends on the extent to which the
samples are OOD. When visualizing the transition updates and convolutional
feature maps, we observe that any changes in object attributes (such as
previously unseen colors, shapes, or conjunctions of color and shape) breaks
down the factorization of object representations. Overall, our work highlights
the importance of object-centric representations for generalization and current
models are limited in their capacity to learn such representations required for
human-level generalization.
- Abstract(参考訳): オブジェクト中心の世界モデルに関する最近の研究は、完全に教師なしまたは自己管理的な方法で、オブジェクトの観点で表現を分解することを目的としている。
このような世界モデルは一般化問題に対処する重要な要素であると仮定されている。
しかし、自己スーパービジョンでは性能が向上しているが、OODの一般化は体系的にも明示的にもテストされていない。
本稿では、対照的世界モデルの一般化特性について広範な研究を行う。
我々は、新しいオブジェクト属性への外挿、新しい結合や新しい属性の導入など、様々なOOD一般化シナリオの下で、モデルを体系的にテストする。
実験の結果, 対照的な世界モデルでは, 異なるOODテストの下では一般化できず, サンプルがOODの程度によって性能が低下することがわかった。
遷移の更新と畳み込みの特徴マップを視覚化すると、オブジェクトの属性の変化(以前は目に見えない色、形、色と形の組み合わせなど)が、オブジェクトの表現の分解を分解するのを観察する。
我々の研究は、一般化のためのオブジェクト指向表現の重要性を強調し、現在のモデルは人間レベルの一般化に必要な表現を学ぶ能力に制限されている。
関連論文リスト
- In Search of Forgotten Domain Generalization [20.26519807919284]
Out-of-Domain (OOD) 一般化は、1つ以上のドメインでトレーニングされたモデルが見えないドメインに一般化する能力である。
コンピュータビジョンのImageNet時代において、モデルのOOD性能を測定するための評価セットは、スタイルに関して厳密にOODであるように設計されていた。
基礎モデルや拡張Webスケールデータセットの出現は、この評価プロセスを邪魔している。
論文 参考訳(メタデータ) (2024-10-10T17:50:45Z) - Unveiling the Generalization Power of Fine-Tuned Large Language Models [81.70754292058258]
大規模言語モデル(LLM)に固有の内在的一般化能力に微調整が及ぼす影響について検討する。
本研究の主目的は、生成タスクと分類タスクを微調整したモデルが、異なる領域やタスクに一般化する際に異なる振る舞いを示すことである。
生成タスクの微調整中にコンテキスト内学習戦略を統合することで、モデルの一般化能力を高めることができる。
論文 参考訳(メタデータ) (2024-03-14T08:18:59Z) - Adaptive Contextual Perception: How to Generalize to New Backgrounds and
Ambiguous Objects [75.15563723169234]
本研究では,視覚モデルが分布外一般化の文脈をどのように適応的に利用するかを検討する。
1つの設定で優れているモデルは、もう1つの設定で苦労する傾向があります。
生物学的視覚の一般化能力を再現するためには、コンピュータビジョンモデルは背景表現に対して分解対象を持つ必要がある。
論文 参考訳(メタデータ) (2023-06-09T15:29:54Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Representation Learning Does Not Generalize Strongly Within the
Same Domain [41.66817277929783]
我々は、17の教師なし、弱弱教師付き、完全教師付き表現学習アプローチが、単純なデータセットの変動の生成要因を正しく推測するかどうかを検証した。
2000以上のモデルをトレーニングし、テストし、それらすべてが、監視信号やアーキテクチャバイアスに関係なく、基盤となるメカニズムを学ぶのに苦労していることを観察します。
論文 参考訳(メタデータ) (2021-07-17T11:24:18Z) - Generalization and Robustness Implications in Object-Centric Learning [23.021791024676986]
本稿では,5つの共通オブジェクトデータセット上で,最先端の教師なしモデルを訓練する。
実験結果から,ダウンストリームタスクに一般的に有用なオブジェクト中心表現が得られた。
論文 参考訳(メタデータ) (2021-07-01T17:51:11Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。