論文の概要: Toward Faithfulness-guided Ensemble Interpretation of Neural Network
- arxiv url: http://arxiv.org/abs/2509.04588v1
- Date: Thu, 04 Sep 2025 18:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.381336
- Title: Toward Faithfulness-guided Ensemble Interpretation of Neural Network
- Title(参考訳): ニューラルネットワークの忠実性誘導型アンサンブル解釈に向けて
- Authors: Siyu Zhang, Kenneth Mcmillan,
- Abstract要約: 特定の神経推論に対する解釈可能かつ忠実な説明は、モデル行動を理解し評価するために不可欠である。
本研究は,thabfFaithfulness-guided textbfEnsemble textbfInterpretation (textbfFEI)を紹介する。
- 参考スコア(独自算出の注目度): 4.811608153296386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable and faithful explanations for specific neural inferences are crucial for understanding and evaluating model behavior. Our work introduces \textbf{F}aithfulness-guided \textbf{E}nsemble \textbf{I}nterpretation (\textbf{FEI}), an innovative framework that enhances the breadth and effectiveness of faithfulness, advancing interpretability by providing superior visualization. Through an analysis of existing evaluation benchmarks, \textbf{FEI} employs a smooth approximation to elevate quantitative faithfulness scores. Diverse variations of \textbf{FEI} target enhanced faithfulness in hidden layer encodings, expanding interpretability. Additionally, we propose a novel qualitative metric that assesses hidden layer faithfulness. In extensive experiments, \textbf{FEI} surpasses existing methods, demonstrating substantial advances in qualitative visualization and quantitative faithfulness scores. Our research establishes a comprehensive framework for elevating faithfulness in neural network explanations, emphasizing both breadth and precision
- Abstract(参考訳): 特定の神経推論に対する解釈可能かつ忠実な説明は、モデル行動を理解し評価するために不可欠である。
本研究は, 忠実性の広さと有効性を向上し, より優れた可視化を提供することにより解釈可能性を向上させる, 革新的枠組みである, \textbf{F}aithfulness-guided \textbf{E}nsemble \textbf{I}nterpretation (\textbf{FEI})を紹介する。
既存の評価ベンチマークの分析を通じて、 textbf{FEI} はスムーズな近似を用いて量的忠実度スコアを高めている。
textbf{FEI} の様々なバリエーションは、隠された層エンコーディングにおける忠実性を高め、解釈可能性を広げる。
さらに,隠蔽層忠実度を評価するための定性的指標を提案する。
大規模な実験では、textbf{FEI} は既存の手法を超越し、質的な可視化と量的忠実度スコアの大幅な進歩を示す。
我々の研究は、ニューラルネットワークの説明における忠実度を高めるための包括的枠組みを確立し、幅と精度の両方を強調する。
関連論文リスト
- DEFNet: Multitasks-based Deep Evidential Fusion Network for Blind Image Quality Assessment [5.517243185525322]
ブラインド画像品質評価(BIQA)手法は、しばしば性能向上のために補助的なタスクを組み込む。
本稿では,BIQAのためのマルチタスクに基づくディープ・エビデンシャル・フュージョン・ネットワーク(DEFNet)を提案する。
論文 参考訳(メタデータ) (2025-07-25T16:36:45Z) - Dynamic Cross-Modal Alignment for Robust Semantic Location Prediction [0.0]
本稿では,この課題に固有の文脈的あいまいさとモダリティの相違に対処するための識別フレームワークであるtextitContextualized Vision-Language Alignment (CoVLA)を紹介する。
ベンチマークデータセットの実験では、CoVLAは最先端の手法を著しく上回り、精度は2.3%、スコアは2.5%向上した。
論文 参考訳(メタデータ) (2024-12-13T05:29:37Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Towards Better Visualizing the Decision Basis of Networks via Unfold and Conquer Attribution Guidance [29.016425469068587]
本稿では,ネットワーク決定の妥当性を高める新しいフレームワークUnfold and Conquer Guidance(UCAG)を提案する。
UCAGは画像のスライスに対する自信に順応し、豊富な明確な解釈をもたらす。
いくつかのメトリクスで性能を検証するために、多数の評価を行います。
論文 参考訳(メタデータ) (2023-12-21T03:43:19Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - A Fine-grained Interpretability Evaluation Benchmark for Neural NLP [44.08113828762984]
このベンチマークでは、感情分析、テキスト類似性、読解の3つのNLPタスクをカバーしている。
十分にコンパクトで包括的に注釈付けされたトークンレベルの合理性を提供します。
3つのサリエンシ手法を用いた3つの典型的なモデルについて実験を行い、その強度と弱さを解釈可能性の観点から明らかにした。
論文 参考訳(メタデータ) (2022-05-23T07:37:04Z) - Towards Faithfully Interpretable NLP Systems: How should we define and
evaluate faithfulness? [58.13152510843004]
ディープラーニングベースのNLPモデルの普及に伴い、解釈可能なシステムの必要性が高まっている。
解釈可能性とは何か、そして高品質な解釈を構成するものは何か?
我々は、解釈が満たすべき異なる望ましい基準をより明確に区別し、忠実度基準に焦点を合わせることを求めている。
論文 参考訳(メタデータ) (2020-04-07T20:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。