論文の概要: FoPro: Few-Shot Guided Robust Webly-Supervised Prototypical Learning
- arxiv url: http://arxiv.org/abs/2212.00465v1
- Date: Thu, 1 Dec 2022 12:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:07:33.432228
- Title: FoPro: Few-Shot Guided Robust Webly-Supervised Prototypical Learning
- Title(参考訳): FoPro:ロバストなWeb改善型プロトタイプ学習
- Authors: Yulei Qin, Xingyu Chen, Chao Chen, Yunhang Shen, Bo Ren, Yun Gu, Jie
Yang, Chunhua Shen
- Abstract要約: 本稿ではFoPro表現学習法を提案する。
FoProはWebデータセットでトレーニングされており、実世界のデータセットでガイドされ、評価されている実世界の例がいくつかある。
提案手法は,3つの細粒度データセットと2つの大規模データセットに対して,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 82.75157675790553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, webly supervised learning (WSL) has been studied to leverage
numerous and accessible data from the Internet. Most existing methods focus on
learning noise-robust models from web images while neglecting the performance
drop caused by the differences between web domain and real-world domain.
However, only by tackling the performance gap above can we fully exploit the
practical value of web datasets. To this end, we propose a Few-shot guided
Prototypical (FoPro) representation learning method, which only needs a few
labeled examples from reality and can significantly improve the performance in
the real-world domain. Specifically, we initialize each class center with
few-shot real-world data as the ``realistic" prototype. Then, the intra-class
distance between web instances and ``realistic" prototypes is narrowed by
contrastive learning. Finally, we measure image-prototype distance with a
learnable metric. Prototypes are polished by adjacent high-quality web images
and involved in removing distant out-of-distribution samples. In experiments,
FoPro is trained on web datasets with a few real-world examples guided and
evaluated on real-world datasets. Our method achieves the state-of-the-art
performance on three fine-grained datasets and two large-scale datasets.
Compared with existing WSL methods under the same few-shot settings, FoPro
still excels in real-world generalization. Code is available at
https://github.com/yuleiqin/fopro.
- Abstract(参考訳): 近年,webly supervised learning (wsl) がインターネットから大量のアクセス可能なデータを活用するために研究されている。
既存の手法の多くは、Webドメインと実世界のドメインの違いによるパフォーマンス低下を無視しながら、Webイメージからノイズロスモデルを学ぶことに焦点を当てている。
しかし、上記のパフォーマンスギャップに取り組むことでのみ、Webデータセットの実用的価値を完全に活用できます。
そこで本研究では,現実からのラベル付きサンプルを数個しか必要とせず,実世界領域のパフォーマンスを著しく向上させることのできる,数ショット誘導型(fopro)表現学習手法を提案する。
具体的には,Web インスタンスと ‘realistic' プロトタイプ間のクラス内距離を,対照的な学習によって狭めることによって,各クラスセンタを "realistic" プロトタイプとして初期化する。
最後に、学習可能なメトリックを用いて画像-プロトタイプ距離を測定する。
プロトタイプは、隣接する高品質なWebイメージによって洗練され、遠隔配布サンプルの除去に関与している。
実験では、foproはwebデータセットでトレーニングされ、実世界のデータセットで指導と評価された実例がいくつかある。
提案手法は,3つの細粒度データセットと2つの大規模データセットに対して,最先端の性能を実現する。
同じ少数ショット設定で既存のwslメソッドと比較すると、foproは実世界の一般化において依然として優れている。
コードはhttps://github.com/yuleiqin/foproで入手できる。
関連論文リスト
- CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - What Makes for Effective Few-shot Point Cloud Classification? [18.62689395276194]
非順序構造,高いクラス内分散,微妙なクラス間差など,3次元のショットラーニングの方が難易度が高いことを示す。
そこで我々は,クラス内差の増大と微妙なクラス間差問題に対処するため,Cross-Instance Adaptation (CIA)モジュールと呼ばれる新しいプラグイン・アンド・プレイ・コンポーネントを提案する。
論文 参考訳(メタデータ) (2023-03-31T15:55:06Z) - Internet Explorer: Targeted Representation Learning on the Open Web [121.02587846761627]
現代のビジョンモデルは通常、大規模で静的なデータセットで事前訓練された微調整の汎用モデルに依存している。
本稿では,インターネットを動的に活用して,手作業で極めてうまく動作する小規模モデルを迅速に訓練することを提案する。
当社のアプローチはInternet Explorerと呼ばれ,Webを自己教師型の方法で探索することで,望ましいターゲットデータセットのパフォーマンス向上に寄与する関連事例を段階的に見つける。
論文 参考訳(メタデータ) (2023-02-27T18:59:55Z) - Vision Based Machine Learning Algorithms for Out-of-Distribution
Generalisation [3.236217153362305]
ドメインシフトに対処しなければならない場合、単純な畳み込みニューラルネットワーク(CNN)ベースのディープラーニング手法が不十分であることを示す。
PACSとOffice-Homeの2つの人気のあるビジョンベースのベンチマークで実験が行われている。
論文 参考訳(メタデータ) (2023-01-17T15:58:29Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - What Stops Learning-based 3D Registration from Working in the Real
World? [53.68326201131434]
この研究は、3Dポイントのクラウド登録失敗の原因を特定し、その原因を分析し、解決策を提案する。
最終的に、これは最も実践的な3D登録ネットワーク(BPNet)に変換される。
我々のモデルは微調整をせずに実データに一般化し、商用センサで得られた見えない物体の点雲上で最大67%の精度に達する。
論文 参考訳(メタデータ) (2021-11-19T19:24:27Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Virtual to Real adaptation of Pedestrian Detectors [9.432150710329607]
ViPeDは、ビデオゲームGTA V - Grand Theft Auto Vのグラフィカルエンジンで収集された新しい合成画像セットである。
本稿では,歩行者検出作業に適した2つの異なる領域適応手法を提案する。
実験によると、ViPeDでトレーニングされたネットワークは、実世界のデータでトレーニングされた検出器よりも、目に見えない現実世界のシナリオを一般化できる。
論文 参考訳(メタデータ) (2020-01-09T14:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。