論文の概要: Explain To Me: Salience-Based Explainability for Synthetic Face
Detection Models
- arxiv url: http://arxiv.org/abs/2303.11969v2
- Date: Mon, 27 Mar 2023 16:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 23:19:30.343244
- Title: Explain To Me: Salience-Based Explainability for Synthetic Face
Detection Models
- Title(参考訳): 説明する: 合成顔検出モデルにおけるサリエンスに基づく説明可能性
- Authors: Colton Crum, Patrick Tinsley, Aidan Boyd, Jacob Piland, Christopher
Sweet, Timothy Kelley, Kevin Bowyer, Adam Czajka
- Abstract要約: 本稿では,モデル・サリエンスを利用してモデル・サリエンスを大規模に説明するための5つの手法を提案する。
これらの方法は、 (a) モデルのサリエンスマップの平均エントロピーは何か、 (b) モデルサリエンスがどのように変化するか、 (c) モデルサリエンスを独立したトレーニングで安定させるか、 (e) モデルサリエンスがサリエンス誘導画像の劣化にどのように反応するかを問う。
- 参考スコア(独自算出の注目度): 3.0467185351395827
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The performance of convolutional neural networks has continued to improve
over the last decade. At the same time, as model complexity grows, it becomes
increasingly more difficult to explain model decisions. Such explanations may
be of critical importance for reliable operation of human-machine pairing
setups, or for model selection when the "best" model among many
equally-accurate models must be established. Saliency maps represent one
popular way of explaining model decisions by highlighting image regions models
deem important when making a prediction. However, examining salience maps at
scale is not practical. In this paper, we propose five novel methods of
leveraging model salience to explain a model behavior at scale. These methods
ask: (a) what is the average entropy for a model's salience maps, (b) how does
model salience change when fed out-of-set samples, (c) how closely does model
salience follow geometrical transformations, (d) what is the stability of model
salience across independent training runs, and (e) how does model salience
react to salience-guided image degradations. To assess the proposed measures on
a concrete and topical problem, we conducted a series of experiments for the
task of synthetic face detection with two types of models: those trained
traditionally with cross-entropy loss, and those guided by human salience when
training to increase model generalizability. These two types of models are
characterized by different, interpretable properties of their salience maps,
which allows for the evaluation of the correctness of the proposed measures. We
offer source codes for each measure along with this paper.
- Abstract(参考訳): 畳み込みニューラルネットワークのパフォーマンスは、過去10年間で改善を続けている。
同時に、モデル複雑性が増加するにつれて、モデル決定を説明するのがますます難しくなります。
このような説明は、人間と機械のペアリング装置の信頼性の高い操作や、多くの等精度モデルの中で「最良の」モデルを確立する必要がある場合のモデル選択に重要である。
解像度マップは、予測を行う上で重要な画像領域モデルを強調することで、モデル決定を説明する一般的な方法の1つである。
しかし、スケールでのサラエンスマップの検査は実用的ではない。
本稿では,大規模モデルにおけるモデルの振る舞いを説明するために,モデルサルジェンスを活用する5つの新しい手法を提案する。
これらの方法は
(a)モデルのサリエンスマップの平均エントロピーは何か。
(b)オフオブセットサンプルを投入した場合、モデルサリエンスがどのように変化するか。
(c)モデルサリエンスが幾何学的変換にいかに密接に従っているか。
(d)独立訓練におけるモデル塩分安定度とは何か、
(e)salienceモデルがsalience誘導画像劣化にどのように反応するか。
提案手法を具体的・主題的に評価するために, 従来のクロスエントロピー損失訓練モデルと, モデル一般化性を高めるためのトレーニングにおいて, 人間のサリエンスによって指導された2種類のモデルを用いて, 合成顔検出のための一連の実験を行った。
これらの2種類のモデルの特徴は,サリエンスマップの異なる解釈可能な特性によって特徴づけられ,提案手法の正確性を評価することができる。
この論文とともに,各尺度のソースコードを提供する。
関連論文リスト
- Latent diffusion models for parameterization and data assimilation of facies-based geomodels [0.0]
拡散モデルは、ランダムノイズを特徴とする入力場から新しい地質学的実現を生成するために訓練される。
遅延拡散モデルは、ジオモデリングソフトウェアからのサンプルと視覚的に整合した実現を提供する。
論文 参考訳(メタデータ) (2024-06-21T01:32:03Z) - Ablation Based Counterfactuals [7.481286710933861]
ABC (Ablation Based Counterfactuals) は、モデル再訓練ではなくモデルアブレーションに依存する反ファクト解析を行う手法である。
拡散モデルの集合を用いてこのようなモデルを構築する方法を示す。
次に、このモデルを用いて、完全な対物的景観を列挙することで、トレーニングデータ属性の限界を研究する。
論文 参考訳(メタデータ) (2024-06-12T06:22:51Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - To what extent do human explanations of model behavior align with actual
model behavior? [91.67905128825402]
モデル推論決定の人間による説明が、モデルが実際にこれらの決定を下す方法と一致する程度を調べた。
自然言語の人間の説明が入力語に対するモデル感度とどのように一致するかを定量化する2つのアライメント指標を定義した。
モデルと人間の説明との整合は、NLI上のモデルの精度によって予測されないことが判明した。
論文 参考訳(メタデータ) (2020-12-24T17:40:06Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Learning Invariances for Interpretability using Supervised VAE [0.0]
我々はモデルを解釈する手段としてモデル不変性を学習する。
可変オートエンコーダ(VAE)の教師型形式を提案する。
我々は、我々のモデルと特徴属性の手法を組み合わせることで、モデルの意思決定プロセスについてよりきめ細やかな理解を得られることを示す。
論文 参考訳(メタデータ) (2020-07-15T10:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。