論文の概要: Interactivity x Explainability: Toward Understanding How Interactivity Can Improve Computer Vision Explanations
- arxiv url: http://arxiv.org/abs/2504.10745v1
- Date: Mon, 14 Apr 2025 22:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:06:52.261443
- Title: Interactivity x Explainability: Toward Understanding How Interactivity Can Improve Computer Vision Explanations
- Title(参考訳): Interactive x Explainability: Interactiveがコンピュータビジョンの説明をどのように改善できるかを理解する
- Authors: Indu Panigrahi, Sunnie S. Y. Kim, Amna Liaqat, Rohan Jinturkar, Olga Russakovsky, Ruth Fong, Parastoo Abtahi,
- Abstract要約: 本稿では,3つの共通説明型(ヒートマップベース,コンセプトベース,プロトタイプベース)で問題に対処するためのメカニズムとして,対話性について検討する。
対話性はユーザコントロールを強化し,関連情報への迅速な収束を促進する一方で,新たな課題ももたらした。
これらの問題に対処するために、我々は、慎重に選択されたデフォルトビュー、独立した入力制御、制約された出力空間を含む、インタラクティブなコンピュータビジョンの説明のための設計勧告を提供する。
- 参考スコア(独自算出の注目度): 29.91211251232355
- License:
- Abstract: Explanations for computer vision models are important tools for interpreting how the underlying models work. However, they are often presented in static formats, which pose challenges for users, including information overload, a gap between semantic and pixel-level information, and limited opportunities for exploration. We investigate interactivity as a mechanism for tackling these issues in three common explanation types: heatmap-based, concept-based, and prototype-based explanations. We conducted a study (N=24), using a bird identification task, involving participants with diverse technical and domain expertise. We found that while interactivity enhances user control, facilitates rapid convergence to relevant information, and allows users to expand their understanding of the model and explanation, it also introduces new challenges. To address these, we provide design recommendations for interactive computer vision explanations, including carefully selected default views, independent input controls, and constrained output spaces.
- Abstract(参考訳): コンピュータビジョンモデルの説明は、基礎となるモデルの動作を解釈するための重要なツールである。
しかし、それらは静的な形式で提示されることが多く、情報過負荷、セマンティックとピクセルレベルの情報のギャップ、探索の機会の制限など、ユーザにとっての課題となる。
本稿では,これらの問題に対処するためのメカニズムとして,ヒートマップベース,コンセプトベース,プロトタイプベースの3つの共通説明型について検討する。
鳥の識別タスクを用いて,様々な技術・分野の知識を持つ参加者を対象に,N=24の研究を行った。
対話性はユーザコントロールを強化し,関連情報への迅速な収束を促進し,ユーザがモデルや説明に対する理解を深めることを可能にする一方で,新たな課題ももたらした。
これらの問題に対処するために、我々は、慎重に選択されたデフォルトビュー、独立した入力制御、制約された出力空間を含む、インタラクティブなコンピュータビジョンの説明のための設計勧告を提供する。
関連論文リスト
- Interaction as Explanation: A User Interaction-based Method for Explaining Image Classification Models [1.3597551064547502]
コンピュータビジョンでは、説明可能なAI(xAI)手法は「ブラックボックス」問題を緩和しようとする。
従来のxAI手法は、モデル予測に影響を与える入力特徴の可視化に重点を置いている。
本稿では,画像分類モデルのユーザ理解を深めるインタラクションベースのxAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T14:26:00Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Leveraging Explanations in Interactive Machine Learning: An Overview [10.284830265068793]
説明はAIと機械学習(ML)コミュニティへの関心が高まっている。
本稿では,対話的能力と説明が組み合わさった研究の概要について述べる。
論文 参考訳(メタデータ) (2022-07-29T07:46:11Z) - Explainability Requires Interactivity [13.381840447825969]
現代視覚モデルの高度に複雑な決定境界を理解するためのインタラクティブなフレームワークを導入する。
ユーザーはネットワークの決定を徹底的に検査し、調査し、テストすることができる。
論文 参考訳(メタデータ) (2021-09-16T11:02:25Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Fanoos: Multi-Resolution, Multi-Strength, Interactive Explanations for
Learned Systems [0.0]
Fanoosは、正式な検証テクニック、検索、ユーザインタラクションを組み合わせて、望まれる粒度と忠実度で説明を探索するフレームワークである。
Inverted double pendulum と learn CPU usage model の学習コントローラ上で,ユーザからの要求に応じて,Fanoos が説明の抽象性を生成・調整できることを示す。
論文 参考訳(メタデータ) (2020-06-22T17:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。