論文の概要: An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification
- arxiv url: http://arxiv.org/abs/2307.13428v1
- Date: Tue, 25 Jul 2023 11:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:14:52.382982
- Title: An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification
- Title(参考訳): CNNに基づくバイオメトリックス検証のための説明可能なモデル非依存アルゴリズム
- Authors: Fernando Alonso-Fernandez, Kevin Hernandez-Diaz, Jose M. Buades,
Prayag Tiwari, Josef Bigun
- Abstract要約: 本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
- 参考スコア(独自算出の注目度): 55.28171619580959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes an adaptation of the Local Interpretable Model-Agnostic
Explanations (LIME) AI method to operate under a biometric verification
setting. LIME was initially proposed for networks with the same output classes
used for training, and it employs the softmax probability to determine which
regions of the image contribute the most to classification. However, in a
verification setting, the classes to be recognized have not been seen during
training. In addition, instead of using the softmax output, face descriptors
are usually obtained from a layer before the classification layer. The model is
adapted to achieve explainability via cosine similarity between feature vectors
of perturbated versions of the input image. The method is showcased for face
biometrics with two CNN models based on MobileNetv2 and ResNet50.
- Abstract(参考訳): 本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
当初、LIMEはトレーニングに使用されるのと同じ出力クラスを持つネットワークに対して提案され、画像のどの領域が分類に最も貢献するかを決定するためにソフトマックス確率を用いていた。
しかし、検証設定では、認定されるクラスはトレーニング中には見られていない。
さらに、ソフトマックス出力を使用する代わりに、顔ディスクリプタは通常、分類レイヤーの前の層から取得される。
このモデルは、入力画像の摂動バージョンの特徴ベクトル間のコサイン類似性によって説明可能性を実現するために適応される。
この手法は、mobilenetv2とresnet50に基づく2つのcnnモデルによる顔バイオメトリックス向けに紹介されている。
関連論文リスト
- Hybrid diffusion models: combining supervised and generative pretraining for label-efficient fine-tuning of segmentation models [55.2480439325792]
そこで本研究では,第1領域における画像のデノベーションとマスク予測を同時に行うことを目的とした,新しいプレテキストタスクを提案する。
提案手法を用いて事前学習したモデルを微調整すると、教師なしまたは教師なしの事前学習を用いて訓練した類似モデルの微調整よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-08-06T20:19:06Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Generalizing Adversarial Explanations with Grad-CAM [7.165984630575092]
本稿では,Grad-CAMを例ベースの説明からグローバルモデル動作を説明する方法まで拡張する手法を提案する。
実験では,VGG16,ResNet50,ResNet101などの深層モデルと,InceptionNetv3やXceptionNetのような広層モデルに対する敵攻撃について検討した。
提案手法は、画像解析のためのブラックボックスCNNモデルの振る舞いを解析し、敵攻撃を理解するために利用できる。
論文 参考訳(メタデータ) (2022-04-11T22:09:21Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Probabilistic Object Classification using CNN ML-MAP layers [0.0]
ネットワークのLogit層で計算された分布に基づくCNN確率的手法を提案する。
この新しいアプローチは、SoftMaxと比較して有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-05-29T13:34:15Z) - Self-Learning AI Framework for Skin Lesion Image Segmentation and
Classification [0.0]
深層学習モデルで医用画像セグメンテーションを行うには、アノテーションによる大規模な画像データセットのトレーニングが必要である。
この問題を解決するために,2段階のディープラーニングアルゴリズムにおいて自己学習アノテーションスキームが提案された。
提案されたAIフレームワークの分類結果は、トレーニング精度93.8%、テスト精度82.42%を達成した。
論文 参考訳(メタデータ) (2020-01-04T09:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。