論文の概要: Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities
- arxiv url: http://arxiv.org/abs/2009.14701v1
- Date: Wed, 30 Sep 2020 14:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 22:17:30.851230
- Title: Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities
- Title(参考訳): 信頼はどこで崩壊するの?
信頼行列と条件付き信頼密度を用いたディープニューラルネットワークの定量的信頼解析
- Authors: Andrew Hryniowski, Xiao Yu Wang, and Alexander Wong
- Abstract要約: 本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
- 参考スコア(独自算出の注目度): 94.65749466106664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advances and successes in deep learning in recent years have led to
considerable efforts and investments into its widespread ubiquitous adoption
for a wide variety of applications, ranging from personal assistants and
intelligent navigation to search and product recommendation in e-commerce. With
this tremendous rise in deep learning adoption comes questions about the
trustworthiness of the deep neural networks that power these applications.
Motivated to answer such questions, there has been a very recent interest in
trust quantification. In this work, we introduce the concept of trust matrix, a
novel trust quantification strategy that leverages the recently introduced
question-answer trust metric by Wong et al. to provide deeper, more detailed
insights into where trust breaks down for a given deep neural network given a
set of questions. More specifically, a trust matrix defines the expected
question-answer trust for a given actor-oracle answer scenario, allowing one to
quickly spot areas of low trust that needs to be addressed to improve the
trustworthiness of a deep neural network. The proposed trust matrix is simple
to calculate, humanly interpretable, and to the best of the authors' knowledge
is the first to study trust at the actor-oracle answer level. We further extend
the concept of trust densities with the notion of conditional trust densities.
We experimentally leverage trust matrices to study several well-known deep
neural network architectures for image recognition, and further study the trust
density and conditional trust densities for an interesting actor-oracle answer
scenario. The results illustrate that trust matrices, along with conditional
trust densities, can be useful tools in addition to the existing suite of trust
quantification metrics for guiding practitioners and regulators in creating and
certifying deep learning solutions for trusted operation.
- Abstract(参考訳): 近年のディープラーニングの進歩と成功は、パーソナルアシスタントやインテリジェントナビゲーションから、eコマースにおける検索や製品レコメンデーションまで、幅広い用途で広く普及しているアプリケーションへの、かなりの努力と投資につながっている。
ディープラーニング採用のこの飛躍的な増加に伴い、これらのアプリケーションを動かすディープニューラルネットワークの信頼性に関する疑問が浮かび上がっている。
このような疑問に答えるために、信頼の定量化に対する非常に最近の関心が高まっている。
本研究では,Wongらが最近導入した質問応答信頼度を利用した新しい信頼量化戦略である信頼行列の概念を導入し,与えられた深いニューラルネットワークに対して,信頼がどこで破られるのか,より詳細な知見を提供する。
より具体的には、信頼マトリックスは、与えられたアクター-オークルの回答シナリオに対する期待される質問-回答信頼を定義し、ディープニューラルネットワークの信頼性を改善するために対処すべき低い信頼領域を素早く見つけることができる。
提案する信頼行列は、計算が簡単で、人間的に解釈可能であり、著者の知識が、アクターとオラクルの回答レベルで信頼を研究する最初の方法である。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
信頼行列を用いて画像認識のためのいくつかの有名なディープニューラルネットワークアーキテクチャを実験的に研究し、さらに興味深いアクターとoracleの回答シナリオに対する信頼密度と条件付き信頼密度について研究した。
以上の結果から,信頼度と条件付き信頼度は,信頼性操作のための深層学習ソリューションの作成と認定を行う上で,実践者や規制当局を指導するための既存の信頼量化指標に加えて有用なツールであることが示唆された。
関連論文リスト
- Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - TrustGNN: Graph Neural Network based Trust Evaluation via Learnable
Propagative and Composable Nature [63.78619502896071]
信頼評価は、サイバーセキュリティ、ソーシャルコミュニケーション、レコメンダシステムなど、多くのアプリケーションにとって重要である。
本稿では,信頼グラフの伝播性および構成性を考慮した新しい信頼評価手法TrustGNNを提案する。
具体的には、TrustGNNは、異なる伝播過程のための特定の伝播パターンを設計し、新しい信頼を生み出すための異なる伝播過程の貢献を区別する。
論文 参考訳(メタデータ) (2022-05-25T13:57:03Z) - On the Importance of Trust in Next-Generation Networked CPS Systems: An
AI Perspective [2.1055643409860734]
本稿では,ネットワークエージェントの状態を評価し,意思決定プロセスを改善する手段として信頼を提案する。
信頼関係は、プロトコル内のエンティティの相互作用によって生成された証拠に基づいている。
信頼の証拠を活用することで,フェデレートラーニングのパフォーマンスと安全性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-16T02:12:13Z) - Insights into Fairness through Trust: Multi-scale Trust Quantification
for Financial Deep Learning [94.65749466106664]
金融深層学習において探求されていない公平性の基本的な側面は、信頼の概念である。
クレジットカードのデフォルト予測のために,ディープニューラルネットワーク上でマルチスケール信頼度定量化を行う。
論文 参考訳(メタデータ) (2020-11-03T19:05:07Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。