論文の概要: Impact of Feedback Type on Explanatory Interactive Learning
- arxiv url: http://arxiv.org/abs/2209.12476v1
- Date: Mon, 26 Sep 2022 07:33:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 17:07:39.119352
- Title: Impact of Feedback Type on Explanatory Interactive Learning
- Title(参考訳): フィードバック型が説明的対話学習に及ぼす影響
- Authors: Misgina Tsighe Hagos, Kathleen M. Curran, Brian Mac Namee
- Abstract要約: Explanatory Interactive Learning (XIL)は、Human-in-the-Loop(HITL)ベースの対話型学習シナリオを実装するために、視覚モデルの説明に関するユーザフィードバックを収集する。
画像分類タスクにおける2つの異なるユーザフィードバックタイプの有効性を比較した。
本研究では,モデルに有効な画像特徴にフォーカスするよう指示するユーザフィードバックよりも優れた分類と説明の精度で,モデルが有意な結果を見出すような突発的な画像特徴の識別と注釈を示す。
- 参考スコア(独自算出の注目度): 4.039245878626345
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explanatory Interactive Learning (XIL) collects user feedback on visual model
explanations to implement a Human-in-the-Loop (HITL) based interactive learning
scenario. Different user feedback types will have different impacts on user
experience and the cost associated with collecting feedback since different
feedback types involve different levels of image annotation. Although XIL has
been used to improve classification performance in multiple domains, the impact
of different user feedback types on model performance and explanation accuracy
is not well studied. To guide future XIL work we compare the effectiveness of
two different user feedback types in image classification tasks: (1)
instructing an algorithm to ignore certain spurious image features, and (2)
instructing an algorithm to focus on certain valid image features. We use
explanations from a Gradient-weighted Class Activation Mapping (GradCAM) based
XIL model to support both feedback types. We show that identifying and
annotating spurious image features that a model finds salient results in
superior classification and explanation accuracy than user feedback that tells
a model to focus on valid image features.
- Abstract(参考訳): Explanatory Interactive Learning (XIL)は、Human-in-the-Loop(HITL)ベースの対話型学習シナリオを実装するために、視覚モデルの説明に関するユーザフィードバックを収集する。
異なるユーザフィードバックタイプは、ユーザエクスペリエンスと、異なるフィードバックタイプが異なるレベルのイメージアノテーションを含むため、フィードバック収集に伴うコストに異なる影響を与える。
XILは複数のドメインにおける分類性能向上に利用されてきたが、モデル性能と説明精度に対する異なるユーザフィードバックタイプの影響はよく研究されていない。
今後,画像分類タスクにおける2つの異なるユーザフィードバックタイプの有効性を比較する。(1)刺激的な画像特徴を無視するアルゴリズムの指示,(2)有効な画像特徴にフォーカスするアルゴリズムの指示である。
グラディエント重み付きクラスアクティベーションマッピング(GradCAM)ベースのXILモデルからの説明を用いて、両方のフィードバックタイプをサポートする。
本研究では,モデルに有効な画像特徴にフォーカスするよう指示するユーザフィードバックよりも優れた分類と説明の精度で,モデルが有意な結果を見出すような突発的な画像特徴の識別と注釈を示す。
関連論文リスト
- Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Evaluating how interactive visualizations can assist in finding samples where and how computer vision models make mistakes [1.76602679361245]
コンピュータビジョン(CV)モデルを作成するシステムであるSpriteのコンテキストにおいて、2つのインタラクティブな可視化を提示する。
これらの視覚化は、Spriteのユーザがモデルに苦労している画像を特定し(評価)、(計画的な)画像を選択するのにどのように役立つかを調べる。
論文 参考訳(メタデータ) (2023-05-19T14:43:00Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Graph-based Person Signature for Person Re-Identifications [17.181807593574764]
詳細な人物の記述(ラベルの属性)と視覚的特徴(ボディパーツとグローバル機能)をグラフに効果的に集約する新しい方法を提案します。
グラフは、人物の再識別のためのマルチブランチマルチタスクフレームワークに統合されます。
提案手法は,技術状況間での競争結果を達成し,他の属性ベースの手法やマスク誘導手法よりも優れる。
論文 参考訳(メタデータ) (2021-04-14T10:54:36Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。