論文の概要: Field-Guide-Inspired Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2108.10967v1
- Date: Tue, 24 Aug 2021 21:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 22:26:09.130565
- Title: Field-Guide-Inspired Zero-Shot Learning
- Title(参考訳): フィールドガイドによるゼロショット学習
- Authors: Utkarsh Mall, Bharath Hariharan, and Kavita Bala
- Abstract要約: そこで我々は,学習者がクラスを定義する最も有用な属性を対話的に要求するゼロショットアノテーションに対して,フィールドガイドにインスパイアされた新しいアプローチを提案する。
我々は,CUB,SUN,AWA2などの属性アノテーションを用いた分類ベンチマークにおいて,本手法の有効性を検証し,アノテーション数を大幅に減らし,完全アノテーションを用いたモデルの性能を実現することを示す。
- 参考スコア(独自算出の注目度): 39.10156282444968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern recognition systems require large amounts of supervision to achieve
accuracy. Adapting to new domains requires significant data from experts, which
is onerous and can become too expensive. Zero-shot learning requires an
annotated set of attributes for a novel category. Annotating the full set of
attributes for a novel category proves to be a tedious and expensive task in
deployment. This is especially the case when the recognition domain is an
expert domain. We introduce a new field-guide-inspired approach to zero-shot
annotation where the learner model interactively asks for the most useful
attributes that define a class. We evaluate our method on classification
benchmarks with attribute annotations like CUB, SUN, and AWA2 and show that our
model achieves the performance of a model with full annotations at the cost of
a significantly fewer number of annotations. Since the time of experts is
precious, decreasing annotation cost can be very valuable for real-world
deployment.
- Abstract(参考訳): 現代の認識システムは、精度を達成するために大量の監督を必要とする。
新しいドメインに適応するには、専門家からのかなりのデータが必要である。
ゼロショット学習は、新しいカテゴリの注釈付き属性セットを必要とする。
新しいカテゴリの属性の完全なセットをアノテートすることは、デプロイにおいて退屈で高価なタスクであることが証明されます。
これは、認識ドメインがエキスパートドメインである場合に特に当てはまる。
そこで我々は,学習者がクラスを定義する最も有用な属性を対話的に求める,ゼロショットアノテーションに対するフィールドガイド型アプローチを提案する。
我々は,CUB,SUN,AWA2などの属性アノテーションを用いた分類ベンチマークにおいて,本手法の有効性を検証し,アノテーション数を大幅に減らし,完全アノテーションを用いたモデルの性能を実現することを示す。
専門家の時間は重要なので、実際のデプロイにはアノテーションのコストを削減できる。
関連論文リスト
- Simultaneous Gesture Classification and Localization with an Automatic
Gesture Annotation Model [10.898703544071934]
本稿では,ジェスチャクラスを自動的にアノテーション化し,その時間範囲を識別するアノテーションモデルを提案する。
本研究は,ジェスチャー分類精度(3-4%改善)と局所化精度(71-75%改善)の両面で,アノテーションモデル設計がベースラインを超えることを示す。
論文 参考訳(メタデータ) (2024-01-20T07:11:03Z) - From Categories to Classifier: Name-Only Continual Learning by Exploring
the Web [125.75085825742092]
継続的な学習はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である、広範な注釈付きデータセットの可用性に依存します。
時間とコストの制約により手動のアノテーションが禁止される、名前のみの連続学習と呼ばれる新しいパラダイムを探求する。
提案手法は,広範かつ進化を続けるインターネットを活用して,未処理のウェブ教師付きデータを検索・ダウンロードして画像分類を行う。
論文 参考訳(メタデータ) (2023-11-19T10:43:43Z) - Deep Active Learning with Noisy Oracle in Object Detection [5.5165579223151795]
ディープオブジェクト検出のためのラベルレビューモジュールを含む複合能動学習フレームワークを提案する。
アクティブなデータセットで部分的にノイズの多いアノテーションを修正するためにアノテーションの予算の一部を利用することで、モデルの性能が早期に向上することを示します。
本実験では,同一のアノテーション予算でラベルレビューを組み込むことで,最大4.5mAPポイントのオブジェクト検出性能の向上を実現した。
論文 参考訳(メタデータ) (2023-09-30T13:28:35Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Full or Weak annotations? An adaptive strategy for budget-constrained
annotation campaigns [3.1318537187387787]
セグメンテーションデータセットのアノテーション戦略を決定する新しい手法を提案する。
提案手法は, 分割と分類アノテーションの比率を連続的に決定し, 予算制約の収集を行う。
実験では、さまざまなアノテーション予算とデータセットに対して最適に非常に近いアノテーションが得られたことを示します。
論文 参考訳(メタデータ) (2023-03-21T08:41:54Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z) - Make an Omelette with Breaking Eggs: Zero-Shot Learning for Novel
Attribute Synthesis [65.74825840440504]
我々は,ZSLA(Zero Shot Learning for Attributes)を提案する。
提案手法は,新しい属性の検出器をゼロショット学習方式で合成することができる。
提案手法は,Caltech-UCSD Birds-200-2011データセット上の32個の属性のみを用いて,他の207個の新しい属性を合成することができる。
論文 参考訳(メタデータ) (2021-11-28T15:45:54Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。