論文の概要: Self-Supervised Representation Learning with Cross-Context Learning
between Global and Hypercolumn Features
- arxiv url: http://arxiv.org/abs/2308.13392v1
- Date: Fri, 25 Aug 2023 14:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:42:02.435302
- Title: Self-Supervised Representation Learning with Cross-Context Learning
between Global and Hypercolumn Features
- Title(参考訳): グローバル特徴とハイパーカラム特徴の相互学習による自己教師付き表現学習
- Authors: Zheng Gao, Chen Feng, Ioannis Patras
- Abstract要約: クロスコンテキスト学習は、モデルが2つのコンテキストの違いから学ぶことを可能にする。
線形分類とダウンストリームタスクの実験結果から,本手法は最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 16.73454481187041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whilst contrastive learning yields powerful representations by matching
different augmented views of the same instance, it lacks the ability to capture
the similarities between different instances. One popular way to address this
limitation is by learning global features (after the global pooling) to capture
inter-instance relationships based on knowledge distillation, where the global
features of the teacher are used to guide the learning of the global features
of the student. Inspired by cross-modality learning, we extend this existing
framework that only learns from global features by encouraging the global
features and intermediate layer features to learn from each other. This leads
to our novel self-supervised framework: cross-context learning between global
and hypercolumn features (CGH), that enforces the consistency of instance
relations between low- and high-level semantics. Specifically, we stack the
intermediate feature maps to construct a hypercolumn representation so that we
can measure instance relations using two contexts (hypercolumn and global
feature) separately, and then use the relations of one context to guide the
learning of the other. This cross-context learning allows the model to learn
from the differences between the two contexts. The experimental results on
linear classification and downstream tasks show that our method outperforms the
state-of-the-art methods.
- Abstract(参考訳): 対照的な学習は、同じインスタンスの異なる拡張ビューをマッチングすることで強力な表現をもたらすが、異なるインスタンス間の類似性をキャプチャする能力が欠けている。
この制限に対処する一般的な方法の1つは、学生のグローバルな特徴の学習を指導するために教師のグローバルな特徴が使用される知識蒸留に基づくインスタンス間関係を捉えるために、グローバルな特徴(グローバルプールの後)を学ぶことである。
クロスモダリティ学習にインスパイアされたこの既存のフレームワークは、グローバル機能と中間層機能を相互に学習させることによって、グローバル機能からのみ学習する。
グローバルとハイパーカラムの機能間のクロスコンテキスト学習(CGH)は、低レベルのセマンティクスと高レベルのセマンティクス間のインスタンス関係の一貫性を強制する。
具体的には、中間特徴写像を積み重ねてハイパーカラム表現を構築し、2つのコンテキスト(ハイパーカラムとグローバルな特徴)を用いてインスタンス関係を別々に測定し、一方のコンテキストの関係を使って他方の学習を導く。
このクロスコンテキスト学習は、モデルが2つのコンテキストの違いから学ぶことを可能にする。
線形分類とダウンストリームタスクの実験結果は,本手法が最先端手法よりも優れていることを示している。
関連論文リスト
- Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Detecting Any Human-Object Interaction Relationship: Universal HOI
Detector with Spatial Prompt Learning on Foundation Models [55.20626448358655]
本研究では,ビジョン・ランゲージ(VL)基礎モデルと大規模言語モデル(LLM)を用いて,オープンワールド環境におけるユニバーサルインタラクション認識について検討する。
我々の設計にはHO Prompt-guided Decoder (HOPD) が含まれており、基礎モデルにおける高次関係表現と画像内の様々なHOペアとの結合を容易にする。
オープンカテゴリの対話認識では,対話文と解釈文の2つのタイプがサポートされている。
論文 参考訳(メタデータ) (2023-11-07T08:27:32Z) - Multi-network Contrastive Learning Based on Global and Local
Representations [4.190134425277768]
本稿では,グローバルおよびローカル表現に基づくマルチネットワークコントラスト学習フレームワークを提案する。
複数のネットワークを通じて自己指導型コントラスト学習のためのグローバル・ローカル特徴情報を導入する。
また、コントラストに使用されるサンプルの数を増やし、モデルのトレーニング効率を向上させる。
論文 参考訳(メタデータ) (2023-06-28T05:30:57Z) - ViRel: Unsupervised Visual Relations Discovery with Graph-level Analogy [65.5580334698777]
ViRelは、グラフレベルのアナロジーを用いた視覚関係の教師なし発見と学習のための方法である。
本研究では,関係分類において95%以上の精度を達成できることを示す。
さらに、より複雑な関係構造を持つ未確認タスクに一般化する。
論文 参考訳(メタデータ) (2022-07-04T16:56:45Z) - Joint Multi-view Unsupervised Feature Selection and Graph Learning [18.303477722460247]
本稿では,JMVFG(Command Multi-view unsupervised feature selection and graph learning)アプローチを提案する。
複数視点の特徴選択を分解で定式化し、各対象行列をビュー固有の基底行列に分解する。
様々な実世界のマルチビューデータセットの実験は、マルチビュー特徴選択とグラフ学習タスクの両方において、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2022-04-18T10:50:03Z) - Can I see an Example? Active Learning the Long Tail of Attributes and
Relations [64.50739983632006]
視覚シーンの属性や関係を問う,新たな逐次能動学習フレームワークを提案する。
従来のアクティブな学習手法では、特定の例のラベルを求めるが、エージェントが特定のカテゴリからサンプルを求めることができるように、このフレーミングを反転させる。
このフレーミングを用いて、データ分布の尾からサンプルを求めるアクティブサンプリング手法を導入し、Visual Genomeの古典的アクティブラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-11T19:28:19Z) - Binocular Mutual Learning for Improving Few-shot Classification [12.365863092359502]
両眼相互学習(BML)という統合フレームワークを提案する。
BMLは、ビュー内およびクロスビューモデリングの両方を通して、グローバルビューとローカルビューの互換性を実現する。
さらに、相互観的相互相互作用により、相互に有用な知識の暗黙的な探索と協調学習が促進される。
論文 参考訳(メタデータ) (2021-08-27T03:17:22Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Learning Dual Semantic Relations with Graph Attention for Image-Text
Matching [13.80433764370972]
我々はDual Semantic Relations Attention Network(DSRAN)という,新しい多段階意味関係強化手法を提案する。
本手法は,2つの意味関係学習方式の有効性により,従来の手法よりも大きな差で性能を向上する。
論文 参考訳(メタデータ) (2020-10-22T09:21:32Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。