論文の概要: Accelerating Anchors via Specialization and Feature Transformation
- arxiv url: http://arxiv.org/abs/2502.11068v1
- Date: Sun, 16 Feb 2025 10:30:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:14:45.884310
- Title: Accelerating Anchors via Specialization and Feature Transformation
- Title(参考訳): 特殊化と特徴変換によるアンカーの高速化
- Authors: Haonan Yu, Junhao Liu, Xin Zhang,
- Abstract要約: 説明品質を損なうことなくアンカーを加速するための事前学習型アプローチを提案する。
提案手法はアンカーのアルゴリズムの反復性を生かし、与えられた入力が十分正確になるまで説明を徐々に洗練する。
- 参考スコア(独自算出の注目度): 14.110188927768736
- License:
- Abstract: Anchors is a popular local model-agnostic explanation technique whose applicability is limited by its computational inefficiency. To address this limitation, we propose a pre-training-based approach to accelerate Anchors without compromising the explanation quality. Our approach leverages the iterative nature of Anchors' algorithm which gradually refines an explanation until it is precise enough for a given input by providing a general explanation that is obtained through pre-training as Anchors' initial explanation. Specifically, we develop a two-step rule transformation process: the horizontal transformation adapts a pre-trained explanation to the current input by replacing features, and the vertical transformation refines the general explanation until it is precise enough for the input. We evaluate our method across tabular, text, and image datasets, demonstrating that it significantly reduces explanation generation time while maintaining fidelity and interpretability, thereby enabling the practical adoption of Anchors in time-sensitive applications.
- Abstract(参考訳): アンカーは、その計算非効率性によって適用性が制限される、一般的な局所モデルに依存しない説明技法である。
この制限に対処するために、説明品質を損なうことなくアンカーを加速するための事前学習に基づくアプローチを提案する。
提案手法は,Anchorsの初期説明として事前学習によって得られる一般的な説明を提供することにより,与えられた入力に対して十分正確になるまで,説明を徐々に洗練するAnchorsのアルゴリズムの反復性を活用する。
具体的には、2段階のルール変換プロセスを開発し、水平変換は特徴を置き換えることで現在の入力に事前訓練された説明を適応させ、垂直変換は入力が十分正確になるまで一般的な説明を洗練する。
本手法を表, テキスト, 画像データセット間で評価し, 忠実度と解釈可能性を維持しながら説明生成時間を大幅に短縮し, 時間に敏感なアプリケーションにおけるアンカーの実践的採用を可能にすることを示した。
関連論文リスト
- RESTORE: Towards Feature Shift for Vision-Language Prompt Learning [33.13407089704543]
ここでは,CLIPの1つの分岐のみに沿った即時チューニングが,誤調整の発生の原因であることを示す。
学習可能なパラメータをさまざまなモダリティで適切に正規化することなく、迅速な学習は元の事前学習制約に違反する。
クロスモーダルな一貫性に明示的な制約を課すマルチモーダルなプロンプト学習手法であるRESTOREを提案する。
論文 参考訳(メタデータ) (2024-03-10T08:52:48Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - ReX: A Framework for Incorporating Temporal Information in
Model-Agnostic Local Explanation Techniques [9.039022899550883]
可変長入力を処理するモデルに様々な説明手法を適用するためのフレームワークであるReXを提案する。
LIME と Anchors の2つの一般的な説明手法にアプローチをインスタンス化する。
評価の結果,本手法は説明の忠実さと理解可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-09-08T13:10:29Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - XAI for Transformers: Better Explanations through Conservative
Propagation [60.67748036747221]
変換器の勾配は局所的にのみ関数を反映しており、入力特徴の予測への寄与を確実に識別できないことを示す。
我々の提案は、よく確立されたLPP法のトランスフォーマーへの適切な拡張と見なすことができる。
論文 参考訳(メタデータ) (2022-02-15T10:47:11Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Fast Real-time Counterfactual Explanations [0.76146285961466]
最適化のない高速ReAl-time Counterfactual Explanation (FRACE)アルゴリズムを提案する。
GANの敵対的な訓練のため、我々の説明は他のものよりも現実的である。
論文 参考訳(メタデータ) (2020-07-11T05:29:28Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget [164.65771897804404]
多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、これを情報理論最適化問題として定式化する。
本稿では,特権情報の推定値について,各例について決定する帯域幅のばらつきボトルネックを提案する。
論文 参考訳(メタデータ) (2020-04-24T18:29:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。