論文の概要: Weakly Supervised Representation Learning with Coarse Labels
- arxiv url: http://arxiv.org/abs/2005.09681v3
- Date: Tue, 24 Aug 2021 04:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:16:03.897577
- Title: Weakly Supervised Representation Learning with Coarse Labels
- Title(参考訳): 粗いラベルを用いた弱教師付き表現学習
- Authors: Yuanhong Xu, Qi Qian, Hao Li, Rong Jin, Juhua Hu
- Abstract要約: ディープラーニングは、原材料から直接タスク依存の方法で識別パターンを学習することができる。
現実のアプリケーションでは、オンラインショッピングにおけるビジュアル検索など、タスク固有のラベルを収集するには高すぎる。
粗いクラスラベルのみを利用できる場合に,対象タスクのきめ細かいパターンを学習するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 29.67549798642795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of computational power and techniques for data
collection, deep learning demonstrates a superior performance over most
existing algorithms on visual benchmark data sets. Many efforts have been
devoted to studying the mechanism of deep learning. One important observation
is that deep learning can learn the discriminative patterns from raw materials
directly in a task-dependent manner. Therefore, the representations obtained by
deep learning outperform hand-crafted features significantly. However, for some
real-world applications, it is too expensive to collect the task-specific
labels, such as visual search in online shopping. Compared to the limited
availability of these task-specific labels, their coarse-class labels are much
more affordable, but representations learned from them can be suboptimal for
the target task. To mitigate this challenge, we propose an algorithm to learn
the fine-grained patterns for the target task, when only its coarse-class
labels are available. More importantly, we provide a theoretical guarantee for
this. Extensive experiments on real-world data sets demonstrate that the
proposed method can significantly improve the performance of learned
representations on the target task, when only coarse-class information is
available for training. Code is available at
\url{https://github.com/idstcv/CoIns}.
- Abstract(参考訳): データ収集のための計算能力と技術の開発により、ディープラーニングは、ビジュアルベンチマークデータセット上の既存のアルゴリズムよりも優れた性能を示す。
深層学習のメカニズムの研究に多くの努力が注がれている。
重要な観察の1つは、ディープラーニングが原材料から直接タスク依存の方法で識別パターンを学習できることである。
そのため、深層学習により得られた表現は手作りの特徴を著しく上回る。
しかし、現実のアプリケーションでは、オンラインショッピングでのビジュアル検索のようなタスク固有のラベルを収集するには高価すぎる。
これらのタスク固有のラベルの可用性が限られているのに対して、粗いクラスラベルはずっと手頃だが、それらから学んだ表現はターゲットタスクに最適である。
この課題を軽減するために,粗いラベルのみを利用できる場合に,対象タスクのきめ細かいパターンを学習するアルゴリズムを提案する。
さらに重要なのは、理論的保証を提供することです。
実世界のデータセットに対する大規模な実験により,提案手法は,粗いクラス情報のみをトレーニングに利用できる場合に,対象タスク上での学習表現の性能を著しく向上させることができることを示した。
コードは \url{https://github.com/idstcv/CoIns} で入手できる。
関連論文リスト
- Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Improving Model Training via Self-learned Label Representations [5.969349640156469]
より洗練されたラベル表現は、通常のワンホット符号化よりも分類に適していることが示される。
分類タスクの学習中にラベル表現を同時に学習する適応ラベル付き学習(LwAL)アルゴリズムを提案する。
我々のアルゴリズムは無視可能な追加パラメータを導入し、計算オーバーヘッドを最小限に抑える。
論文 参考訳(メタデータ) (2022-09-09T21:10:43Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Investigating Power laws in Deep Representation Learning [4.996066540156903]
本研究では,非ラベルデータセットにおける表現の質を評価するためのフレームワークを提案する。
表現学習に影響を与える3つの重要な属性に対して、電力法則の係数$alpha$を推定する。
特に$alpha$はラベルの知識のない表現から計算可能であり、非ラベル付きデータセットにおける表現の質を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-11T18:11:32Z) - Learning Representations for Pixel-based Control: What Matters and Why? [22.177382138487566]
本稿では,メトリックベースの学習,データ拡張,ワールドモデル学習,コントラスト学習のない,意味のある表現を学習可能な,シンプルなベースラインアプローチを提案する。
この結果から,報酬の密度,課題の計画的地平,課題関連コンポーネントの存在などに基づくベンチマークのより詳細な分類が,アルゴリズムの評価に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2021-11-15T14:16:28Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Automated Self-Supervised Learning for Graphs [37.14382990139527]
本研究の目的は、複数のプリテキストタスクを効果的に活用する方法を検討することである。
我々は、多くの実世界のグラフ、すなわちホモフィリーの鍵となる原理を、様々な自己教師付きプレテキストタスクを効果的に探索するためのガイダンスとして利用している。
本稿では,自己教師型タスクの組み合わせを自動的に検索するAutoSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-10T03:09:20Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Learning Purified Feature Representations from Task-irrelevant Labels [18.967445416679624]
本稿では,タスク関連ラベルから抽出したタスク関連機能を利用したPurifiedLearningという新しい学習フレームワークを提案する。
本研究は,PurifiedLearningの有効性を実証する,ソリッド理論解析と広範囲な実験に基づいている。
論文 参考訳(メタデータ) (2021-02-22T12:50:49Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。