論文の概要: Angular Gap: Reducing the Uncertainty of Image Difficulty through Model
Calibration
- arxiv url: http://arxiv.org/abs/2207.08525v1
- Date: Mon, 18 Jul 2022 11:42:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 17:14:12.576731
- Title: Angular Gap: Reducing the Uncertainty of Image Difficulty through Model
Calibration
- Title(参考訳): angular gap:モデルキャリブレーションによる画像難易度の不確実性低減
- Authors: Bohua Peng, Mobarakol Islam, Mei Tu
- Abstract要約: 超球面学習によって構築された特徴埋め込みとクラスウェイト埋め込みの角距離差に基づく難易度尺度であるAngular Gapを提案する。
CIFAR10-HとImageNetV2の最近の難易度指標よりも、校正されたAngular Gapの方が優れていることを示す。
我々はこのカリキュラムを、最先端の自己学習方法であるCycle Self Training (CST)と組み合わせる。
- 参考スコア(独自算出の注目度): 6.305950347749109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curriculum learning needs example difficulty to proceed from easy to hard.
However, the credibility of image difficulty is rarely investigated, which can
seriously affect the effectiveness of curricula. In this work, we propose
Angular Gap, a measure of difficulty based on the difference in angular
distance between feature embeddings and class-weight embeddings built by
hyperspherical learning. To ascertain difficulty estimation, we introduce
class-wise model calibration, as a post-training technique, to the learnt
hyperbolic space. This bridges the gap between probabilistic model calibration
and angular distance estimation of hyperspherical learning. We show the
superiority of our calibrated Angular Gap over recent difficulty metrics on
CIFAR10-H and ImageNetV2. We further propose Angular Gap based curriculum
learning for unsupervised domain adaptation that can translate from learning
easy samples to mining hard samples. We combine this curriculum with a
state-of-the-art self-training method, Cycle Self Training (CST). The proposed
Curricular CST learns robust representations and outperforms recent baselines
on Office31 and VisDA 2017.
- Abstract(参考訳): カリキュラム学習は、簡単なものから難しいものへと進むのが困難である。
しかし, 画像難易度の信頼性が調査されることは稀であり, カリキュラムの有効性に重大な影響を及ぼす可能性がある。
本研究では,超球面学習によって構築された特徴埋め込みとクラスウェイト埋め込みの角距離差に基づく難易度尺度であるAngular Gapを提案する。
難易度推定のために,学習した双曲空間に学習後の手法としてクラスワイドモデル校正を導入する。
これは確率的モデルの校正と超球面学習の角距離推定のギャップを埋める。
CIFAR10-HとImageNetV2の最近の難易度指標よりも、校正されたAngular Gapの方が優れていることを示す。
簡単なサンプルの学習からハードサンプルのマイニングまで,教師なしドメイン適応のためのAngular Gapベースのカリキュラム学習を提案する。
我々はこのカリキュラムを,最先端の自己学習手法であるCycle Self Training (CST)と組み合わせた。
提案手法は,office31およびvisda 2017におけるロバスト表現を学習し,最近のベースラインを上回っている。
関連論文リスト
- Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - Sample4Geo: Hard Negative Sampling For Cross-View Geo-Localisation [2.3020018305241337]
対称なInfoNCE損失を伴うコントラスト学習に基づく,シンプルだが効果的なアーキテクチャを提案する。
私たちのフレームワークは、アグリゲーションモジュールの使用を不要にする、狭いトレーニングパイプラインで構成されています。
本研究は,CVUSA,CVACT,University-1652,VIGORなどの一般的なクロスビューデータセットに対して,優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-21T13:49:49Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Deep Active Learning Using Barlow Twins [0.0]
畳み込みニューラルネットワーク(CNN)の一般化性能は、トレーニング画像の量、品質、多様性に大きく左右される。
タスクのアクティブラーニングの目標は、ラベルのないプールから最も情報に富んだサンプルを引き出すことである。
本稿では,すべてのデータセットに対する能動的学習手法であるBarlowTwins(DALBT)を用いたDeep Active Learningを提案する。
論文 参考訳(メタデータ) (2022-12-30T12:39:55Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - SSR-HEF: Crowd Counting with Multi-Scale Semantic Refining and Hard
Example Focusing [21.326958308285114]
群集カウントの回帰タスクに対するHard Example Focusing(HEF)アルゴリズムを提案する。
HEFアルゴリズムは、簡単なサンプルの寄与を減らし、ハードサンプルに迅速にフォーカスする。
提案手法を検証するため,6つのベンチマークデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-04-15T10:01:35Z) - Style Curriculum Learning for Robust Medical Image Segmentation [62.02435329931057]
深部セグメンテーションモデルは、トレーニングデータセットとテストデータセットの間の画像強度の分散シフトによって、しばしば劣化する。
本稿では,そのような分散シフトが存在する場合に,ロバストなセグメンテーションを確保するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-01T08:56:24Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Curriculum Learning with Diversity for Supervised Computer Vision Tasks [1.5229257192293197]
本稿では,学習データの多様性と入力の難しさを考慮に入れた,新たなカリキュラムサンプリング戦略を提案する。
我々は、我々の戦略が不均衡なデータセットに対して非常に効率的であることを証明し、より高速な収束とより正確な結果をもたらす。
論文 参考訳(メタデータ) (2020-09-22T15:32:49Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。