論文の概要: Binocular Mutual Learning for Improving Few-shot Classification
- arxiv url: http://arxiv.org/abs/2108.12104v1
- Date: Fri, 27 Aug 2021 03:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:14:49.174661
- Title: Binocular Mutual Learning for Improving Few-shot Classification
- Title(参考訳): 両眼相互学習によるショット分類の改善
- Authors: Ziqi Zhou, Xi Qiu, Jiangtao Xie, Jianan Wu and Chi Zhang
- Abstract要約: 両眼相互学習(BML)という統合フレームワークを提案する。
BMLは、ビュー内およびクロスビューモデリングの両方を通して、グローバルビューとローカルビューの互換性を実現する。
さらに、相互観的相互相互作用により、相互に有用な知識の暗黙的な探索と協調学習が促進される。
- 参考スコア(独自算出の注目度): 12.365863092359502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the few-shot learning methods learn to transfer knowledge from
datasets with abundant labeled data (i.e., the base set). From the perspective
of class space on base set, existing methods either focus on utilizing all
classes under a global view by normal pretraining, or pay more attention to
adopt an episodic manner to train meta-tasks within few classes in a local
view. However, the interaction of the two views is rarely explored. As the two
views capture complementary information, we naturally think of the
compatibility of them for achieving further performance gains. Inspired by the
mutual learning paradigm and binocular parallax, we propose a unified
framework, namely Binocular Mutual Learning (BML), which achieves the
compatibility of the global view and the local view through both intra-view and
cross-view modeling. Concretely, the global view learns in the whole class
space to capture rich inter-class relationships. Meanwhile, the local view
learns in the local class space within each episode, focusing on matching
positive pairs correctly. In addition, cross-view mutual interaction further
promotes the collaborative learning and the implicit exploration of useful
knowledge from each other. During meta-test, binocular embeddings are
aggregated together to support decision-making, which greatly improve the
accuracy of classification. Extensive experiments conducted on multiple
benchmarks including cross-domain validation confirm the effectiveness of our
method.
- Abstract(参考訳): 少数の学習手法のほとんどは、豊富なラベル付きデータ(ベースセット)を持つデータセットから知識を伝達することを学ぶ。
基本セット上のクラス空間の観点からは、既存のメソッドは、通常の事前トレーニングによるグローバルビュー下のすべてのクラスの利用にフォーカスするか、あるいはローカルビューのわずかなクラス内でメタタスクをトレーニングするためのエピソディックな方法を採用することにもっと注意を払うかのどちらかである。
しかし、この2つの見解の相互作用はまれである。
2つのビューは補完的な情報をキャプチャするので、さらなるパフォーマンス向上を達成するための互換性を自然に考えます。
相互学習パラダイムと双眼視差に着想を得て,両眼相互学習(BML)という統合された枠組みを提案する。
具体的には、グローバルビューはクラス全体で学び、リッチなクラス間関係を捉える。
一方、ローカルビューは各エピソード内のローカルクラス空間で学び、正のペアを正しくマッチングすることに集中する。
さらに、相互の相互交流により、協調学習と相互の有用な知識の暗黙の探索が促進される。
メタテストでは、両眼埋め込みを集約して意思決定をサポートし、分類の精度を大幅に向上させる。
クロスドメイン検証を含む複数のベンチマークで行った広範囲な実験により,本手法の有効性が確認された。
関連論文リスト
- Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - Hierarchical Mutual Information Analysis: Towards Multi-view Clustering
in The Wild [9.380271109354474]
この研究は、データリカバリとアライメントを階層的に一貫した方法で融合し、異なるビュー間の相互情報を最大化するディープMVCフレームワークを提案する。
私たちの知る限りでは、これは欠落したデータ問題と不整合データ問題に異なる学習パラダイムで別々に対処する最初の試みになるかもしれません。
論文 参考訳(メタデータ) (2023-10-28T06:43:57Z) - Self-Supervised Representation Learning with Cross-Context Learning
between Global and Hypercolumn Features [16.73454481187041]
クロスコンテキスト学習は、モデルが2つのコンテキストの違いから学ぶことを可能にする。
線形分類とダウンストリームタスクの実験結果から,本手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-25T14:08:07Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Joint Multi-view Unsupervised Feature Selection and Graph Learning [18.303477722460247]
本稿では,JMVFG(Command Multi-view unsupervised feature selection and graph learning)アプローチを提案する。
複数視点の特徴選択を分解で定式化し、各対象行列をビュー固有の基底行列に分解する。
様々な実世界のマルチビューデータセットの実験は、マルチビュー特徴選択とグラフ学習タスクの両方において、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2022-04-18T10:50:03Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation [84.2925550033094]
ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
論文 参考訳(メタデータ) (2020-08-14T07:45:50Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。