論文の概要: On The Variability of Concept Activation Vectors
- arxiv url: http://arxiv.org/abs/2509.24058v1
- Date: Sun, 28 Sep 2025 20:23:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.610347
- Title: On The Variability of Concept Activation Vectors
- Title(参考訳): 概念活性化ベクトルの可変性について
- Authors: Julia Wenkmann, Damien Garreau,
- Abstract要約: 本稿では,概念活性化ベクトル(CAV)の理論解析を行い,その変動性を定量化する。
いくつかの実生活データセットの実験により確認され、普遍的な結果に向けて指摘された。
- 参考スコア(独自算出の注目度): 7.512710862906094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most pressing challenges in artificial intelligence is to make models more transparent to their users. Recently, explainable artificial intelligence has come up with numerous method to tackle this challenge. A promising avenue is to use concept-based explanations, that is, high-level concepts instead of plain feature importance score. Among this class of methods, Concept Activation vectors (CAVs), Kim et al. (2018) stands out as one of the main protagonists. One interesting aspect of CAVs is that their computation requires sampling random examples in the train set. Therefore, the actual vectors obtained may vary from user to user depending on the randomness of this sampling. In this paper, we propose a fine-grained theoretical analysis of CAVs construction in order to quantify their variability. Our results, confirmed by experiments on several real-life datasets, point out towards an universal result: the variance of CAVs decreases as $1/N$, where $N$ is the number of random examples. Based on this we give practical recommendations for a resource-efficient application of the method.
- Abstract(参考訳): 人工知能の最大の課題の1つは、モデルをユーザーにより透明にすることだ。
近年、説明可能な人工知能がこの課題に対処するための多くの方法が考案されている。
有望な道のりは、概念に基づく説明、つまり、基本的な機能の重要度スコアではなく、ハイレベルな概念を使うことである。
このような方法の中で、概念活性化ベクトル (Concept Activation vectors, CAVs)、Kim et al (2018) は主要な主人公の1つとして際立っている。
CAVの興味深い側面の1つは、それらの計算が列車の集合におけるランダムなサンプルをサンプリングする必要があることである。
したがって、このサンプリングのランダム性に応じて、実際のベクトルはユーザによって異なる場合がある。
本稿では,その変動性を定量化するために,CAVの構成に関する微粒な理論的解析を提案する。
CAVの分散は1/N$に減少し、そこではN$はランダムな例の数である。
これに基づいて,本手法の資源効率向上のための実用的な提案を行う。
関連論文リスト
- ReGuidance: A Simple Diffusion Wrapper for Boosting Sample Quality on Hard Inverse Problems [10.698572109242434]
簡単なラッパーであるReGuidanceを考案し、トレーニング不要の手法で実現したサンプルリアリズムと報酬の両方を向上する。
我々は,大箱 in-painting や高スケール超解像といったハード逆問題に対するラッパーの評価を行った。
論文 参考訳(メタデータ) (2025-06-12T17:55:17Z) - Intention-Conditioned Flow Occupancy Models [69.79049994662591]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Towards Model Resistant to Transferable Adversarial Examples via Trigger Activation [95.3977252782181]
知覚不能な摂動によって特徴づけられる敵対的な例は、彼らの予測を誤解させることで、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では,移動可能な敵例(TAE)に対して,より効率的かつ効果的に堅牢性を高めることを目的とした,新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-04-20T09:07:10Z) - Quantile Activation: Correcting a Failure Mode of ML Models [4.035209200949511]
本稿では、計算コストを大幅に増大させることなく、この問題に対処する単純なアクティベーション関数、量子アクティベーション(QAct)を提案する。
提案した量子化活性化(QAct)は、その文脈分布内のニューロン活性化の相対的な量子化位置を出力する。
DINOv2は、はるかに大きなネットワークとデータセットでトレーニングされているにも関わらず、このアプローチが予想外にDINOv2(小さかった)を上回っていることが分かりました。
論文 参考訳(メタデータ) (2024-05-19T14:42:19Z) - Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Optimal Off-Policy Evaluation from Multiple Logging Policies [77.62012545592233]
我々は,複数のロギングポリシからオフ政治評価を行い,それぞれが一定のサイズ,すなわち階層化サンプリングのデータセットを生成する。
複数ロガーのOPE推定器は,任意のインスタンス,すなわち効率のよいインスタンスに対して最小分散である。
論文 参考訳(メタデータ) (2020-10-21T13:43:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。