論文の概要: Self-Supervised Contextual Bandits in Computer Vision
- arxiv url: http://arxiv.org/abs/2003.08485v1
- Date: Wed, 18 Mar 2020 22:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:22:20.432446
- Title: Self-Supervised Contextual Bandits in Computer Vision
- Title(参考訳): コンピュータビジョンにおける自己監督型コンテキスト帯域
- Authors: Aniket Anand Deshmukh, Abhimanu Kumar, Levi Boyles, Denis Charles,
Eren Manavoglu, Urun Dogan
- Abstract要約: コンテキストバンディット(Contextual bandits)は、機械学習の実践者が直面する一般的な問題である。
本稿では,文脈的包括的目標と自己監督的目標を組み合わせることで,この問題に対処する新たなアプローチを提案する。
8種類のコンピュータビジョンデータセットを用いた結果,累積報酬が大幅に向上した。
- 参考スコア(独自算出の注目度): 4.165029665035158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contextual bandits are a common problem faced by machine learning
practitioners in domains as diverse as hypothesis testing to product
recommendations. There have been a lot of approaches in exploiting rich data
representations for contextual bandit problems with varying degree of success.
Self-supervised learning is a promising approach to find rich data
representations without explicit labels. In a typical self-supervised learning
scheme, the primary task is defined by the problem objective (e.g. clustering,
classification, embedding generation etc.) and the secondary task is defined by
the self-supervision objective (e.g. rotation prediction, words in
neighborhood, colorization, etc.). In the usual self-supervision, we learn
implicit labels from the training data for a secondary task. However, in the
contextual bandit setting, we don't have the advantage of getting implicit
labels due to lack of data in the initial phase of learning. We provide a novel
approach to tackle this issue by combining a contextual bandit objective with a
self supervision objective. By augmenting contextual bandit learning with
self-supervision we get a better cumulative reward. Our results on eight
popular computer vision datasets show substantial gains in cumulative reward.
We provide cases where the proposed scheme doesn't perform optimally and give
alternative methods for better learning in these cases.
- Abstract(参考訳): コンテキストバンディットは、仮説テストから製品レコメンデーションまで、ドメイン内の機械学習実践者が直面する一般的な問題である。
様々な成功の度合いでコンテキスト的バンディット問題にリッチなデータ表現を利用するには、多くのアプローチがあった。
自己教師付き学習は、明示的なラベルなしでリッチなデータ表現を見つけるための有望なアプローチである。
典型的な自己指導型学習スキームでは、第一のタスクは問題目標(クラスタリング、分類、埋め込み生成など)によって定義され、第二のタスクは自己監督目標(回転予測、近傍の言葉、着色など)によって定義される。
通常のセルフスーパービジョンでは,2次タスクのトレーニングデータから暗黙のラベルを学習する。
しかし、文脈的バンディット設定では、学習の初期段階でデータが不足しているため、暗黙的なラベルを得るという利点はありません。
文脈的バンディット目標と自己監督目標を組み合わせることにより,この問題に取り組むための新たなアプローチを提案する。
文脈的バンディット学習を自己超越で強化することで、より累積的な報酬を得ることができます。
8種類のコンピュータビジョンデータセットを用いた結果,累積報酬が大幅に向上した。
提案手法が最適に動作しないケースを提供し、これらのケースでより良い学習を行うための代替手法を提供する。
関連論文リスト
- One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - From Weakly Supervised Learning to Active Learning [1.52292571922932]
この論文は、教師付き学習よりも汎用的なフレームワークを導き出せるか?
私たちは、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとして、弱い監督をモデル化します。
我々は、ほとんどの観測値と一致する楽観的な'関数を求めるべきだと論じる。これにより、部分ラベルを曖昧にするための原則を導出できる。
論文 参考訳(メタデータ) (2022-09-23T14:55:43Z) - New Intent Discovery with Pre-training and Contrastive Learning [21.25371293641141]
新しい意図発見は、ユーザ発話から新しい意図カテゴリーを明らかにして、サポート対象クラスのセットを拡張することを目的としている。
既存のアプローチは通常、大量のラベル付き発話に依存する。
本稿では,クラスタリングのためのラベルなしデータにおける自己超越的信号を活用するために,新たなコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:07:25Z) - Using Self-Supervised Pretext Tasks for Active Learning [7.214674613451605]
本稿では,自己教師付きプレテキストタスクとユニークなデータサンプリング機能を利用して,困難かつ代表的なデータを選択する,新しいアクティブラーニング手法を提案する。
プレテキストタスク学習者は、未ラベルのセットでトレーニングされ、未ラベルのデータは、そのプレテキストタスクの損失によって、バッチにソートされ、グループ化される。
各イテレーションでは、メインタスクモデルを使用して、アノテートされるバッチで最も不確実なデータをサンプリングする。
論文 参考訳(メタデータ) (2022-01-19T07:58:06Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Contextual Bandit with Missing Rewards [27.066965426355257]
文脈に基づく決定に関連付けられた報酬が必ずしも観測されないような、文脈的包帯問題の新しい変種を考察する。
この新しい問題は、臨床試験や広告レコメンデーションアプリケーションを含む特定のオンライン設定によって動機付けられている。
本稿では,クラスタリングのような教師なし学習機構と,標準的な文脈的帯域幅アプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-13T13:29:51Z) - How Useful is Self-Supervised Pretraining for Visual Tasks? [133.1984299177874]
我々は、総合的な合成データセットと下流タスクにまたがる様々な自己教師付きアルゴリズムを評価する。
我々の実験は、利用可能なラベルの数が増えるにつれて、セルフスーパービジョンの有用性がどう変化するかについての洞察を提供する。
論文 参考訳(メタデータ) (2020-03-31T16:03:22Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。