論文の概要: Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization
- arxiv url: http://arxiv.org/abs/2505.07910v2
- Date: Fri, 23 May 2025 13:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 15:51:02.994823
- Title: Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization
- Title(参考訳): 信頼性のチューニング - ニューラルネットワーク最適化におけるパフォーマンスと説明整合性のバランス
- Authors: Alexander Hinterleitner, Thomas Bartz-Beielstein,
- Abstract要約: 我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
- 参考スコア(独自算出の注目度): 49.567092222782435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the growing interest in Explainable Artificial Intelligence (XAI), explainability is rarely considered during hyperparameter tuning or neural architecture optimization, where the focus remains primarily on minimizing predictive loss. In this work, we introduce the novel concept of XAI consistency, defined as the agreement among different feature attribution methods, and propose new metrics to quantify it. For the first time, we integrate XAI consistency directly into the hyperparameter tuning objective, creating a multi-objective optimization framework that balances predictive performance with explanation robustness. Implemented within the Sequential Parameter Optimization Toolbox (SPOT), our approach uses both weighted aggregation and desirability-based strategies to guide model selection. Through our proposed framework and supporting tools, we explore the impact of incorporating XAI consistency into the optimization process. This enables us to characterize distinct regions in the architecture configuration space: one region with poor performance and comparatively low interpretability, another with strong predictive performance but weak interpretability due to low \gls{xai} consistency, and a trade-off region that balances both objectives by offering high interpretability alongside competitive performance. Beyond introducing this novel approach, our research provides a foundation for future investigations into whether models from the trade-off zone-balancing performance loss and XAI consistency-exhibit greater robustness by avoiding overfitting to training performance, thereby leading to more reliable predictions on out-of-distribution data.
- Abstract(参考訳): 説明可能な人工知能(XAI)への関心が高まっているにもかかわらず、ハイパーパラメータチューニングやニューラルアーキテクチャ最適化の間、説明可能性はほとんど考慮されていない。
本稿では,異なる特徴属性法間の一致として定義された新しいXAI整合性の概念を導入し,その定量化のための新しい指標を提案する。
初めて、XAIの一貫性を直接ハイパーパラメータチューニングの目標に統合し、予測性能と説明堅牢性とのバランスをとる多目的最適化フレームワークを作成しました。
逐次パラメータ最適化ツールボックス(SPOT)内に実装され、重み付けアグリゲーションとデザーバビリティに基づく戦略の両方を用いてモデル選択を導出する。
提案するフレームワークとサポートツールを通じて、最適化プロセスにXAI一貫性を組み込むことの影響について検討する。
これにより、アーキテクチャ構成空間の異なる領域を特徴付けることができ、性能が劣り、相対的に解釈可能性の低い領域、高い予測性能を持つ領域、低い \gls{xai} 整合性による弱い解釈可能性を持つ領域、高い解釈可能性と競合性能を提供することで両方の目的のバランスをとるトレードオフ領域がある。
本研究は, この新たなアプローチの導入に加えて, トレードオフゾーンバランス性能損失とXAI整合性抑制によるトレーニング性能の過度な適合を回避し, アウト・オブ・ディストリビューションデータに対する信頼性の高い予測を実現することにより, 今後の研究基盤を提供する。
関連論文リスト
- Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Enhancing Performance of Explainable AI Models with Constrained Concept Refinement [10.241134756773228]
正確性と解釈可能性のトレードオフは、機械学習(ML)における長年の課題である。
本稿では,概念表現における偏差の影響について検討し,これらの効果を緩和するための新しい枠組みを提案する。
従来の説明可能な手法と比較して,提案手法は様々な大規模ベンチマークにおいてモデル解釈可能性を維持しながら予測精度を向上するだけでなく,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-10T18:53:15Z) - Learning Dynamic Representations via An Optimally-Weighted Maximum Mean Discrepancy Optimization Framework for Continual Learning [16.10753846850319]
継続的な学習は、モデルを永続的に取得し、保持することを可能にする。
悲惨な忘れ物は モデルパフォーマンスを著しく損なう
本稿では,表現変更に対する罰則を課す,OPMMD(Optimally-Weighted Mean Discrepancy)と呼ばれる新しいフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-01-21T13:33:45Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Beyond Single-Model Views for Deep Learning: Optimization versus
Generalizability of Stochastic Optimization Algorithms [13.134564730161983]
本稿では、勾配降下(SGD)とその変種に着目し、ディープラーニングの最適化に新しいアプローチを採用する。
我々はSGDとその変種がSAMのような平らなミニマと同等の性能を示すことを示した。
本研究は、トレーニング損失とホールドアウト精度の関係、およびSGDとノイズ対応変種の性能について、いくつかの重要な知見を明らかにした。
論文 参考訳(メタデータ) (2024-03-01T14:55:22Z) - SLOTH: Structured Learning and Task-based Optimization for Time Series
Forecasting on Hierarchies [16.12477042879166]
階層時系列(HTS)予測には2つのサブタスク、すなわち予測と和解が含まれる。
本稿では,トップダウン・コンボリューションとボトムアップ・アテンション(ボトムアップ・アテンション)という,新しいツリーベース機能統合機構を提案する。
強い仮定を頼りにするか、一貫性のある制約のみにフォーカスする従来の和解法とは異なり、我々はディープ・ニューラル・オプティマイゼーション・ネットワークを利用する。
論文 参考訳(メタデータ) (2023-02-11T10:50:33Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。