論文の概要: Beyond Augmentation: Leveraging Inter-Instance Relation in Self-Supervised Representation Learning
- arxiv url: http://arxiv.org/abs/2510.22322v1
- Date: Sat, 25 Oct 2025 15:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.098992
- Title: Beyond Augmentation: Leveraging Inter-Instance Relation in Self-Supervised Representation Learning
- Title(参考訳): 拡張を超えて:自己監督型表現学習におけるインスタンス間関係の活用
- Authors: Ali Javidani, Babak Nadjar Araabi, Mohammad Amin Sadeghi,
- Abstract要約: 本稿では,グラフ理論を自己教師付き表現学習に統合する新しい手法を提案する。
KNN(k-nearest neighbor)グラフを事前学習中に教師と学生の両方のストリームに対して構築することで、インスタンス間の関係をキャプチャする。
CIFAR-10、ImageNet-100、ImageNet-1Kの実験結果は、最先端の手法に比べて、それぞれ7.3%、3.2%、1.0%の精度向上を示した。
- 参考スコア(独自算出の注目度): 3.0568042463046563
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel approach that integrates graph theory into self-supervised representation learning. Traditional methods focus on intra-instance variations generated by applying augmentations. However, they often overlook important inter-instance relationships. While our method retains the intra-instance property, it further captures inter-instance relationships by constructing k-nearest neighbor (KNN) graphs for both teacher and student streams during pretraining. In these graphs, nodes represent samples along with their latent representations. Edges encode the similarity between instances. Following pretraining, a representation refinement phase is performed. In this phase, Graph Neural Networks (GNNs) propagate messages not only among immediate neighbors but also across multiple hops, thereby enabling broader contextual integration. Experimental results on CIFAR-10, ImageNet-100, and ImageNet-1K demonstrate accuracy improvements of 7.3%, 3.2%, and 1.0%, respectively, over state-of-the-art methods. These results highlight the effectiveness of the proposed graph based mechanism. The code is publicly available at https://github.com/alijavidani/SSL-GraphNNCLR.
- Abstract(参考訳): 本稿では,グラフ理論を自己教師付き表現学習に統合する新しい手法を提案する。
従来の方法では、拡張の適用によって生成されるインスタンス内のバリエーションに重点を置いている。
しかし、それらはしばしば重要なインスタンス間の関係を見落としている。
本手法は, 教師と学生の事前学習中に, k-nearest neighbor (KNN) グラフを構築することで, インスタンス内特性を保ちながら, さらに, インスタンス間関係を捉える。
これらのグラフでは、ノードはその潜在表現と共にサンプルを表現する。
エッジはインスタンス間の類似性をエンコードする。
事前訓練後、表現精錬フェーズを行う。
このフェーズでは、グラフニューラルネットワーク(GNN)は、隣人だけでなく複数のホップにもメッセージを伝達し、より広いコンテキスト統合を可能にする。
CIFAR-10、ImageNet-100、ImageNet-1Kの実験結果は、最先端の手法に比べて、それぞれ7.3%、3.2%、1.0%の精度向上を示した。
これらの結果は,提案手法の有効性を浮き彫りにした。
コードはhttps://github.com/alijavidani/SSL-GraphNNCLRで公開されている。
関連論文リスト
- Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - NESS: Node Embeddings from Static SubGraphs [0.0]
本稿では,グラフオートエンコーダ(GAE)を用いて静的サブグラフ(NESS)からノード埋め込みをトランスダクティブに学習するフレームワークを提案する。
NESSは2つの主要なアイデアに基づいている。 i) トレーニンググラフをデータ前処理中にランダムなエッジ分割を使用して、重複しないエッジを持つ複数の静的でスパースなサブグラフに分割する。
我々はNESSがリンク予測タスクに対して、グラフ全体またはサブグラフのいずれかを使用する現在の自動符号化手法と比較して、より良いノード表現を提供することを示した。
論文 参考訳(メタデータ) (2023-03-15T22:14:28Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - HL-Net: Heterophily Learning Network for Scene Graph Generation [90.2766568914452]
本稿では,シーングラフにおけるオブジェクト/リレーショナル間のホモフィリとヘテロフィリを探索する,新しいヘテロフィリズ学習ネットワーク(HL-Net)を提案する。
HL-Netは、適応的な再重み付け変換モジュールで、異なる層からの情報を適応的に統合し、オブジェクトのヘテロフィリとホモフィリの両方を利用する。
我々は、ビジュアルゲノム(VG)とオープンイメージ(OI)の2つの公開データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-03T06:00:29Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Hop-Hop Relation-aware Graph Neural Networks [15.15806320256929]
我々は,同種および異種グラフの表現学習を統合するために,ホップホップ対応グラフニューラルネットワーク(HHR-GNN)を提案する。
HHR-GNNは、各ノードに対するパーソナライズされた受容領域を知識グラフ埋め込みを利用して学習し、中央ノードの表現間の関係スコアを異なるホップで学習する。
論文 参考訳(メタデータ) (2020-12-21T06:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。