論文の概要: Personalized Interpretability -- Interactive Alignment of Prototypical Parts Networks
- arxiv url: http://arxiv.org/abs/2506.05533v1
- Date: Thu, 05 Jun 2025 19:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 21:34:56.75158
- Title: Personalized Interpretability -- Interactive Alignment of Prototypical Parts Networks
- Title(参考訳): パーソナライズされた解釈可能性--プロトタイプ部品ネットワークの対話的アライメント
- Authors: Tomasz Michalski, Adam Wróbel, Andrea Bontempelli, Jakub Luśtyk, Mikolaj Kniejski, Stefano Teso, Andrea Passerini, Bartosz Zieliński, Dawid Rymarczyk,
- Abstract要約: 概念に基づく解釈可能なニューラルネットワークは、直感的で理解しやすい説明のために大きな注目を集めている。
最大の制限は、これらの説明が、概念上の矛盾のため、必ずしもユーザーにとって理解できないことである。
この矛盾は、モデル推論と人間の理解の整合性を損なう。
プロトタイプ部品のパーソナライズを可能にする対話型戦略であるYesProtoPを紹介する。
- 参考スコア(独自算出の注目度): 16.958657905772846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept-based interpretable neural networks have gained significant attention due to their intuitive and easy-to-understand explanations based on case-based reasoning, such as "this bird looks like those sparrows". However, a major limitation is that these explanations may not always be comprehensible to users due to concept inconsistency, where multiple visual features are inappropriately mixed (e.g., a bird's head and wings treated as a single concept). This inconsistency breaks the alignment between model reasoning and human understanding. Furthermore, users have specific preferences for how concepts should look, yet current approaches provide no mechanism for incorporating their feedback. To address these issues, we introduce YoursProtoP, a novel interactive strategy that enables the personalization of prototypical parts - the visual concepts used by the model - according to user needs. By incorporating user supervision, YoursProtoP adapts and splits concepts used for both prediction and explanation to better match the user's preferences and understanding. Through experiments on both the synthetic FunnyBirds dataset and a real-world scenario using the CUB, CARS, and PETS datasets in a comprehensive user study, we demonstrate the effectiveness of YoursProtoP in achieving concept consistency without compromising the accuracy of the model.
- Abstract(参考訳): 概念に基づく解釈可能なニューラルネットワークは、ケースベースの推論に基づく直感的で理解しやすい説明のために、"この鳥はそれらのスズメに似ています"というように、大きな注目を集めている。
しかし、これらの説明は、複数の視覚的特徴が不適切に混在している(例えば、鳥の頭と翼は単一の概念として扱われている)という概念の不整合のため、必ずしもユーザにとって理解しやすいわけではない。
この矛盾は、モデル推論と人間の理解の整合性を損なう。
さらに、ユーザーはコンセプトがどのように見えるかという特定の好みを持っているが、現在のアプローチはフィードバックを組み込むためのメカニズムを提供していない。
これらの問題に対処するため,ユーザのニーズに応じて,プロトタイプ部品のパーソナライズを可能にするインタラクティブな戦略であるYoursProtoPを紹介した。
ユーザ管理を取り入れることで、YoursProtoPはユーザの好みや理解に合うように、予測と説明の両方に使用される概念を適応し、分割する。
本研究では,CUB,CARS,PETSを用いて合成FunnyBirdsデータセットと実世界のシナリオの両方を総合的なユーザスタディで実験し,モデルの精度を損なうことなく概念整合性を実現するためのYoursProtoPの有効性を実証した。
関連論文リスト
- Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Neural Concept Binder [22.074896812195437]
本稿では、離散概念表現と連続概念表現の両方を導出するフレームワークであるNeural Concept Binder (NCB)を紹介する。
NCBの概念表現の構造的性質は、直感的な検査と外部知識の直接的な統合を可能にする。
新たに導入したCLEVR-Sudokuデータセットを用いて,NCBの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-14T11:52:09Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
InterpretCCは、人間の理解の容易さと忠実さの説明を最適化する、本質的に解釈可能なニューラルネットワークのファミリーである。
本報告では,InterpretCCの説明は,他の本質的な解釈可能なアプローチよりも,行動性や有用性が高いことを示す。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Selective Concept Models: Permitting Stakeholder Customisation at
Test-Time [32.138390859351425]
本稿では,概念のサブセットのみを用いて予測を行うSCOM(Selective Concept Models)を提案する。
複数の実世界のデータセットに対して最適な精度を実現するために、SCOMは全概念のごく一部しか必要としないことを示す。
CUB-Sel を用いて,人間は理にかなった概念の選択に対して,独特な個人的嗜好を持つことを示す。
論文 参考訳(メタデータ) (2023-06-14T10:37:13Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - Learning Interpretable Concept-Based Models with Human Feedback [36.65337734891338]
本研究では,ユーザが概念特徴をラベル付けすることに依存する高次元データにおいて,透明な概念定義の集合を学習するためのアプローチを提案する。
提案手法は,概念の意味を直感的に理解する概念と一致し,透過的な機械学習モデルにより下流ラベルの予測を容易にする概念を生成する。
論文 参考訳(メタデータ) (2020-12-04T23:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。