論文の概要: Explainable Biometrics in the Age of Deep Learning
- arxiv url: http://arxiv.org/abs/2208.09500v1
- Date: Fri, 19 Aug 2022 18:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:11:05.035673
- Title: Explainable Biometrics in the Age of Deep Learning
- Title(参考訳): 深層学習時代における説明可能なバイオメトリックス
- Authors: Pedro C. Neto, Tiago Gon\c{c}alves, Jo\~ao Ribeiro Pinto, Wilson
Silva, Ana F. Sequeira, Arun Ross, Jaime S. Cardoso
- Abstract要約: バイオメトリックス(英: Biometrics)とは、人間の身体や行動の特徴を分析し定量化するシステムである。
ディープニューラルネットワークは理解し、分析することが難しいため、誤った動機によって動機付けられた隠れた能力や決定は潜在的なリスクである。
本報告では,47枚の論文から説明可能なバイオメトリックスの現状を概観し,この分野の方向性を包括的に議論する。
- 参考スコア(独自算出の注目度): 9.384877648969574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systems capable of analyzing and quantifying human physical or behavioral
traits, known as biometrics systems, are growing in use and application
variability. Since its evolution from handcrafted features and traditional
machine learning to deep learning and automatic feature extraction, the
performance of biometric systems increased to outstanding values. Nonetheless,
the cost of this fast progression is still not understood. Due to its opacity,
deep neural networks are difficult to understand and analyze, hence, hidden
capacities or decisions motivated by the wrong motives are a potential risk.
Researchers have started to pivot their focus towards the understanding of deep
neural networks and the explanation of their predictions. In this paper, we
provide a review of the current state of explainable biometrics based on the
study of 47 papers and discuss comprehensively the direction in which this
field should be developed.
- Abstract(参考訳): 生体計測システム(biometrics systems)として知られる人間の身体的・行動的特性を分析・定量化できるシステムは、利用と応用のバラエティが増大している。
手作りの特徴や伝統的な機械学習からディープラーニングや自動特徴抽出へ進化したため、生体計測システムの性能は優れた値に成長した。
しかし、この急速な進歩のコストはまだ理解されていない。
その不透明さのため、ディープニューラルネットワークは理解や解析が困難であり、誤った動機によって動機づけられた隠れた能力や決定が潜在的なリスクである。
研究者たちは、ディープニューラルネットワークの理解と予測の説明に焦点を合わせ始めている。
本稿では, 47論文の研究をもとに, 説明可能なバイオメトリックスの現状を概観し, 本分野の展開の方向性を総合的に検討する。
関連論文リスト
- Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - The role of causality in explainable artificial intelligence [1.049712834719005]
因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
論文 参考訳(メタデータ) (2023-09-18T16:05:07Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Understanding Narratives through Dimensions of Analogy [17.68704739786042]
アナロジカル推論は、人間が二つの状況を接続し、その知識を慣れ親しんだものから新しいものへと一般化する強力なツールである。
アナログによる推論の可能性を持つ現代のスケーラブルなAI技術は、比例アナロジーの特別なケースにのみ適用されている。
本稿では,(1)認知科学研究の熟達した知見に基づいて6次元のアナロジーを形式化し,(2)それぞれの次元でファブルのコーパスを注釈し,(3)AI技術のスケーラブルな評価を可能にする複雑さを増す4つのタスクを定義することによって,ギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2022-06-14T20:56:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Argumentative XAI: A Survey [15.294433619347082]
計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
論文 参考訳(メタデータ) (2021-05-24T13:32:59Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。