論文の概要: X-Shot: A Unified System to Handle Frequent, Few-shot and Zero-shot
Learning Simultaneously in Classification
- arxiv url: http://arxiv.org/abs/2403.03863v1
- Date: Wed, 6 Mar 2024 17:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:12:07.250487
- Title: X-Shot: A Unified System to Handle Frequent, Few-shot and Zero-shot
Learning Simultaneously in Classification
- Title(参考訳): X-Shot: 頻度, ショット数, ゼロショット学習を同時に行う一元化システム
- Authors: Hanzi Xu, Muhao Chen, Lifu Huang, Slobodan Vucetic, Wenpeng Yin
- Abstract要約: X-shot、freq-shot、 few-shot、zero-shotラベルが予め定義された制限なしに共起する現実世界のコンテキストを反映する。
Xショットは、オープンドメインの一般化と、さまざまなラベルシナリオを管理するのに十分なシステムを考案することに焦点を当てている。
私たちの知る限りでは、これはX が可変のままである X-shot Learning に対処する最初の作業である。
- 参考スコア(独自算出の注目度): 51.07629536521054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, few-shot and zero-shot learning, which learn to predict
labels with limited annotated instances, have garnered significant attention.
Traditional approaches often treat frequent-shot (freq-shot; labels with
abundant instances), few-shot, and zero-shot learning as distinct challenges,
optimizing systems for just one of these scenarios. Yet, in real-world
settings, label occurrences vary greatly. Some of them might appear thousands
of times, while others might only appear sporadically or not at all. For
practical deployment, it is crucial that a system can adapt to any label
occurrence. We introduce a novel classification challenge: X-shot, reflecting a
real-world context where freq-shot, few-shot, and zero-shot labels co-occur
without predefined limits. Here, X can span from 0 to positive infinity. The
crux of X-shot centers on open-domain generalization and devising a system
versatile enough to manage various label scenarios. To solve X-shot, we propose
BinBin (Binary INference Based on INstruction following) that leverages the
Indirect Supervision from a large collection of NLP tasks via instruction
following, bolstered by Weak Supervision provided by large language models.
BinBin surpasses previous state-of-the-art techniques on three benchmark
datasets across multiple domains. To our knowledge, this is the first work
addressing X-shot learning, where X remains variable.
- Abstract(参考訳): 近年では、限定的な注釈付きインスタンスでラベルを予測することを学ぶ、ゼロショット学習やゼロショット学習が注目されている。
従来のアプローチでは、頻繁なショット(freq-shot; 豊富なインスタンスのラベル)、少数ショット、ゼロショット学習を異なる課題として扱い、これらのシナリオの1つにシステムを最適化する。
しかし、現実世界の設定ではラベルの発生は大きく異なる。
中には何千回も現れるものもあるが、散発的にしか現れないものもある。
実践的なデプロイメントでは、システムがラベルの発生に適応できることが重要です。
X-shot、freq-shot、 few-shot、zero-shotラベルが予め定義された制限なしに共起する現実世界のコンテキストを反映する。
ここで x は 0 から正の無限大にまたがる。
Xショットの欠如は、オープンドメインの一般化と、さまざまなラベルシナリオを管理するのに十分なシステムを考案することに集中している。
X-shotを解決するために,大規模な言語モデルによって提供されるWeak Supervisionによって強化された命令に従うNLPタスクの大規模なコレクションから間接スーパービジョンを利用するBinBinを提案する。
BinBinは、複数のドメインにわたる3つのベンチマークデータセットにおいて、これまでの最先端技術を上回っている。
私たちの知る限り、これはX が可変である X ショット学習に対処する最初の作業である。
関連論文リスト
- ICXML: An In-Context Learning Framework for Zero-Shot Extreme Multi-Label Classification [22.825115483590285]
本稿では,非常に大きなラベル空間から各インスタンスの複数のラベルを予測することを目的とした,エクストリームマルチラベル分類(XMC)の課題に焦点を当てる。
In-Context Extreme Multilabel Learning (ICXML)という2段階のフレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-16T08:01:17Z) - Segment, Select, Correct: A Framework for Weakly-Supervised Referring Segmentation [63.13635858586001]
参照画像(RIS)は、自然言語文を通して画像中の物体を識別する問題である。
本稿では、RISを3つのステップに分解することで、RISに対処する弱い教師付きフレームワークを提案する。
最初の2ステップ(ゼロショットセグメントとセレクト)のみを使用して、他のゼロショットベースラインを最大16.5%上回る。
論文 参考訳(メタデータ) (2023-10-20T13:20:17Z) - Disambiguation of One-Shot Visual Classification Tasks: A Simplex-Based
Approach [8.436437583394998]
本稿では,複数の物体の存在を検出するための戦略を提案する。
この戦略は、高次元空間における単純体の角を識別することに基づいている。
提案手法は,極端設定における精度をわずかながら統計的に向上させる能力を示す。
論文 参考訳(メタデータ) (2023-01-16T11:37:05Z) - Vocabulary-informed Zero-shot and Open-set Learning [128.83517181045815]
本稿では,教師付き,ゼロショット,一般化されたゼロショット,オープンセット認識の問題に対処する語彙インフォームド学習を提案する。
具体的には、(教師なしと教師なしの両方)語彙からの距離制約を取り入れた意味多様体に基づく認識のための重み付けされた最大縁フレームワークを提案する。
得られたモデルは、教師付き、ゼロショット、一般化されたゼロショット、および大きなオープンセット認識の改善を示し、Animal with AttributesとImageNetデータセットで最大310Kの語彙を持つ。
論文 参考訳(メタデータ) (2023-01-03T08:19:22Z) - SuS-X: Training-Free Name-Only Transfer of Vision-Language Models [28.06403983530132]
Contrastive Language-Image Pre-Training (CLIP) は、大規模な視覚言語モデルを訓練するための単純かつ効果的な方法として登場した。
CLIPモデル全体を微調整することは、リソース集約的で不安定である。
本稿では,高精細・高コストなラベル付きデータを必要としないSuS-Xを提案する。
論文 参考訳(メタデータ) (2022-11-28T16:48:41Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。