論文の概要: Towards Visual Explainable Active Learning for Zero-Shot Classification
- arxiv url: http://arxiv.org/abs/2108.06730v1
- Date: Sun, 15 Aug 2021 12:39:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:50:36.261858
- Title: Towards Visual Explainable Active Learning for Zero-Shot Classification
- Title(参考訳): ゼロショット分類のための視覚的説明可能なアクティブラーニングに向けて
- Authors: Shichao Jia, Zeyu Li, Nuo Chen, Jiawan Zhang
- Abstract要約: ゼロショット分類は、トレーニングクラスとテストクラスが分離されたときに適用可能な問題を解決するための有望なパラダイムである。
本稿では,セマンティックナビゲータ(semantic navigator)の設計と実装による視覚的説明可能なアクティブラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 8.491675843389514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot classification is a promising paradigm to solve an applicable
problem when the training classes and test classes are disjoint. Achieving this
usually needs experts to externalize their domain knowledge by manually
specifying a class-attribute matrix to define which classes have which
attributes. Designing a suitable class-attribute matrix is the key to the
subsequent procedure, but this design process is tedious and trial-and-error
with no guidance. This paper proposes a visual explainable active learning
approach with its design and implementation called semantic navigator to solve
the above problems. This approach promotes human-AI teaming with four actions
(ask, explain, recommend, respond) in each interaction loop. The machine asks
contrastive questions to guide humans in the thinking process of attributes. A
novel visualization called semantic map explains the current status of the
machine. Therefore analysts can better understand why the machine misclassifies
objects. Moreover, the machine recommends the labels of classes for each
attribute to ease the labeling burden. Finally, humans can steer the model by
modifying the labels interactively, and the machine adjusts its
recommendations. The visual explainable active learning approach improves
humans' efficiency of building zero-shot classification models interactively,
compared with the method without guidance. We justify our results with user
studies using the standard benchmarks for zero-shot classification.
- Abstract(参考訳): ゼロショット分類は、トレーニングクラスとテストクラスが分離されたときに適用可能な問題を解決するための有望なパラダイムである。
これを達成するには、どのクラスにどの属性があるかを定義するために、手動でクラス属性マトリックスを指定することで、ドメインの知識を外部化する専門家が必要です。
適切なクラス属性マトリックスを設計することは、その後の手順の鍵であるが、この設計プロセスは退屈で試行錯誤であり、ガイダンスがない。
本稿では,上記の課題を解決するために,セマンティックナビゲータと呼ばれる設計と実装を用いて,視覚的に説明可能なアクティブラーニング手法を提案する。
このアプローチは、インタラクションループ毎に4つのアクション(ask、説明、推奨、応答)で人間とAIのコラボレーションを促進する。
この機械は、人間に属性の思考過程を導くために、対照的な質問をする。
セマンティックマップと呼ばれる新しい視覚化は、マシンの現状を説明する。
したがって、なぜ機械がオブジェクトを誤分類するのかをよりよく理解することができる。
さらに、マシンは各属性に対するクラスのラベルを推奨し、ラベリングの負担を軽減する。
最後に、人間はラベルを対話的に変更してモデルを制御し、マシンはそのレコメンデーションを調整する。
視覚的説明可能なアクティブラーニングアプローチは、ガイダンスのない手法と比較して、ゼロショット分類モデルを対話的に構築する効率を向上する。
ゼロショット分類のための標準ベンチマークを用いたユーザスタディで結果を正当化する。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Active Globally Explainable Learning for Medical Images via Class
Association Embedding and Cyclic Adversarial Generation [3.0638691735355374]
説明可能なAI(XAI)に関する最近の研究は、学習課題に関するグローバルな知識を抽出する効率を欠いている。
本稿では,これらの問題に対処するクラスアソシエーション埋め込み(CAE)アプローチを提案する。
医用画像分類タスクの枠組みを取り入れ, 強力な文脈認識表現を備えたより正確な衛生マップが実現可能であることを示す。
論文 参考訳(メタデータ) (2023-06-12T04:51:32Z) - Text2Model: Text-based Model Induction for Zero-shot Image Classification [38.704831945753284]
テキスト記述のみを用いてタスクに依存しない分類器を構築するという課題に対処する。
クラス記述を受信し,マルチクラスモデルを出力するハイパーネットワークを用いてゼロショット分類器を生成する。
本手法は,画像,ポイントクラウド,行動認識など,一連のゼロショット分類タスクにおいて,テキスト記述の範囲を用いて評価する。
論文 参考訳(メタデータ) (2022-10-27T05:19:55Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning [9.887110107270196]
最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせるという約束を実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
説明的指導型学習を導入することで、この物語バイアスに対処する。
論文 参考訳(メタデータ) (2020-07-20T11:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。