論文の概要: Enhancing Self-Supervised Learning with Semantic Pairs A New Dataset and Empirical Study
- arxiv url: http://arxiv.org/abs/2510.08722v2
- Date: Mon, 13 Oct 2025 09:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 13:29:55.707593
- Title: Enhancing Self-Supervised Learning with Semantic Pairs A New Dataset and Empirical Study
- Title(参考訳): セマンティックペアによる自己指導型学習の促進 : 新たなデータセットと実証的研究
- Authors: Mohammad Alkhalefi, Georgios Leontidis, Mingjun Zhong,
- Abstract要約: インスタンス識別は、データセット内の個々のインスタンスを別々のクラスとして扱う、自己教師付き表現学習パラダイムである。
モデル表現の一般化性を高めるためにセマンティックペアを利用するための技術基盤を提供する。
- 参考スコア(独自算出の注目度): 2.4405762029252465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instance discrimination is a self-supervised representation learning paradigm wherein individual instances within a dataset are treated as distinct classes. This is typically achieved by generating two disparate views of each instance by applying stochastic transformations, encouraging the model to learn representations invariant to the common underlying object across these views. While this approach facilitates the acquisition of invariant representations for dataset instances under various handcrafted transformations (e.g., random cropping, colour jittering), an exclusive reliance on such data transformations for achieving invariance may inherently limit the model's generalizability to unseen datasets and diverse downstream tasks. The inherent limitation stems from the fact that the finite set of transformations within the data processing pipeline is unable to encompass the full spectrum of potential data variations. In this study, we provide the technical foundation for leveraging semantic pairs to enhance the generalizability of the model's representation and empirically demonstrate that incorporating semantic pairs mitigates the issue of limited transformation coverage. Specifically, we propose that by exposing the model to semantic pairs (i.e., two instances belonging to the same semantic category), we introduce varied real-world scene contexts, thereby fostering the development of more generalizable object representations. To validate this hypothesis, we constructed and released a novel dataset comprising curated semantic pairs and conducted extensive experimentation to empirically establish that their inclusion enables the model to learn more general representations, ultimately leading to improved performance across diverse downstream tasks.
- Abstract(参考訳): インスタンス識別は、データセット内の個々のインスタンスを別々のクラスとして扱う、自己教師付き表現学習パラダイムである。
これは典型的には、確率変換を適用して各インスタンスの2つの異なるビューを生成し、モデルがこれらのビューにまたがる共通の基礎となるオブジェクトに不変な表現を学習するように促すことによって達成される。
このアプローチは、さまざまな手作業による変換(例えば、ランダムなトリミング、カラージッタリング)の下で、データセットインスタンスの不変表現の取得を容易にするが、不変性を達成するためのデータ変換への排他的依存は、本質的には、データセットの一般化性や、さまざまな下流タスクに制限する可能性がある。
固有の制限は、データ処理パイプライン内の有限個の変換セットが、潜在的なデータバリエーションの完全なスペクトルを包含できないという事実に起因している。
本研究では,モデル表現の一般化性を高めるためにセマンティックペアを利用する技術基盤を提供し,セマンティックペアを組み込むことによって,限られた変換カバレッジの問題を軽減することを実証的に実証する。
具体的には、モデルをセマンティックペア(すなわち、同じセマンティックカテゴリに属する2つのインスタンス)に公開することにより、様々な現実世界のシーンコンテキストを導入し、より一般化可能なオブジェクト表現の開発を促進することを提案する。
この仮説を検証するために、我々は、キュレートされたセマンティックペアからなる新しいデータセットを構築し、広範囲な実験を行い、モデルがより汎用的な表現を学習できるようにすることを実証的に証明し、最終的には様々な下流タスクのパフォーマンス向上につながった。
関連論文リスト
- Exploring Transferable Homogeneous Groups for Compositional Zero-Shot Learning [10.687828416652929]
均質なグループ表現学習(HGRL)は、複数の同質なサブグループ表現学習として状態(オブジェクト)表現学習を定式化した新しい視点である。
本手法では,3つのコアコンポーネントを統合し,視覚的表現能力と即時表現能力の両立を図っている。
論文 参考訳(メタデータ) (2025-01-18T08:19:48Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - In-Context Symmetries: Self-Supervised Learning through Contextual World Models [41.61360016455319]
我々は、文脈に注意を払って、異なる変換に不変あるいは同変に適応できる一般的な表現を学ぶことを提案する。
提案するアルゴリズムであるContextual Self-Supervised Learning (ContextSSL)は,すべての変換に等しくなることを学習する。
論文 参考訳(メタデータ) (2024-05-28T14:03:52Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Domain Generalization In Robust Invariant Representation [10.132611239890345]
本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
論文 参考訳(メタデータ) (2023-04-07T00:58:30Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Not All Instances Contribute Equally: Instance-adaptive Class
Representation Learning for Few-Shot Visual Recognition [94.04041301504567]
少数ショットの視覚認識は、いくつかのラベル付きインスタンスから新しい視覚概念を認識することを指す。
本稿では,数ショットの視覚認識を実現するために,インスタンス適応型クラス表現学習ネットワーク(ICRL-Net)と呼ばれる新しいメトリックベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:00:18Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Self-Supervised Learning with Data Augmentations Provably Isolates
Content from Style [32.20957709045773]
我々は拡張過程を潜在変数モデルとして定式化する。
本研究では,2対の観測結果に基づいて,潜在表現の識別可能性について検討した。
Causal3DIdentは、因果関係が豊富な高次元、視覚的に複雑な画像のデータセットである。
論文 参考訳(メタデータ) (2021-06-08T18:18:09Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。