論文の概要: TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support
- arxiv url: http://arxiv.org/abs/2306.13339v1
- Date: Fri, 23 Jun 2023 07:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 13:25:55.626038
- Title: TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support
- Title(参考訳): TrustGuard: 動的サポートを備えたGNNベースのロバストと説明可能な信頼評価
- Authors: Jie Wang, Zheng Yan, Jiahe Lan, Elisa Bertino, Witold Pedrycz
- Abstract要約: 本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 82.29782736199294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trust evaluation assesses trust relationships between entities and
facilitates decision-making. Machine Learning (ML) shows great potential for
trust evaluation owing to its learning capabilities. In recent years, Graph
Neural Networks (GNNs), as a new ML paradigm, have demonstrated superiority in
dealing with graph data. This has motivated researchers to explore their use in
trust evaluation, as trust relationships among entities can be modeled as a
graph. However, current trust evaluation methods that employ GNNs fail to fully
satisfy the dynamicity nature of trust, overlook the adverse effects of attacks
on trust evaluation, and cannot provide convincing explanations on evaluation
results. To address these problems, in this paper, we propose TrustGuard, a
GNN-based accurate trust evaluation model that supports trust dynamicity, is
robust against typical attacks, and provides explanations through
visualization. Specifically, TrustGuard is designed with a layered architecture
that contains a snapshot input layer, a spatial aggregation layer, a temporal
aggregation layer, and a prediction layer. Among them, the spatial aggregation
layer can be plugged into a defense mechanism for a robust aggregation of local
trust relationships, and the temporal aggregation layer applies an attention
mechanism for effective learning of temporal patterns. Extensive experiments on
two real-world datasets show that TrustGuard outperforms state-of-the-art
GNN-based trust evaluation models with respect to trust prediction across
single-timeslot and multi-timeslot, even in the presence of attacks. In
particular, TrustGuard can explain its evaluation results by visualizing both
spatial and temporal views.
- Abstract(参考訳): 信頼評価は、エンティティ間の信頼関係を評価し、意思決定を促進する。
機械学習(ML)は、その学習能力による信頼評価の大きな可能性を示している。
近年、新しいMLパラダイムであるグラフニューラルネットワーク(GNN)は、グラフデータを扱う上で優位性を示している。
これにより,信頼関係をグラフとしてモデル化できるため,信頼評価の活用を研究者が検討する動機となった。
しかし,gnnを用いた現在の信頼評価手法では,信頼の動的な性質を完全に満足できず,信頼評価に対する攻撃の悪影響を見落とし,評価結果に対する説得力のある説明が得られていない。
本稿では,信頼の動的性を支援するgnnベースの信頼評価モデルであるtrustguardを提案する。
具体的には、TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層構造で設計されている。
このうち、空間集約層を局所信頼関係の堅牢な集約のための防衛機構に差し込むことができ、時間集約層は時間的パターンの効果的な学習のための注意機構を適用する。
2つの実世界のデータセットに対する大規模な実験によると、TrustGuardは、攻撃があっても、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れている。
特にTrustGuardは、空間的視点と時間的視点の両方を可視化することで評価結果を説明することができる。
関連論文リスト
- Towards More Trustworthy and Interpretable LLMs for Code through Syntax-Grounded Explanations [48.07182711678573]
ASTrustは、モデル信頼度とプログラミング言語の構文構造の関係に基づく説明を生成する。
ASTからの構文構造のシーケンス, 熱マップ, グラフに基づく可視化を重畳した, モデル信頼度スコアを自動可視化する。
論文 参考訳(メタデータ) (2024-07-12T04:38:28Z) - Using Deep Q-Learning to Dynamically Toggle between Push/Pull Actions in Computational Trust Mechanisms [0.0]
これまでの研究では、信頼度と評価モデルとしてよく知られたCAとFIREを比較し、信頼度が変化するとCAの方が優れていることを示した。
我々は、この問題を部分的に観察可能な環境での機械学習問題とみなし、信頼者にはいくつかの動的要因が存在することが分かっていない。
適応可能なエージェントは、各モデルをいつ使用するかを学ぶことができ、したがって、動的環境において一貫して実行可能であることを示す。
論文 参考訳(メタデータ) (2024-04-28T19:44:56Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - A Trustworthiness Score to Evaluate DNN Predictions [1.5484595752241122]
ディープニューラルネットワークの予測が信頼できるか疑わしいかを知るためには、運用中の安全性が不可欠である。
信頼性スコア(TS: Trustworthiness score)は、予測に対する信頼性を提供するための、より透明で効果的な方法を提供する指標である。
人検出にYOLOv5を用いたケーススタディを行い,TSとSSの手法と使用法を実証した。
論文 参考訳(メタデータ) (2023-01-21T00:48:18Z) - TrustGNN: Graph Neural Network based Trust Evaluation via Learnable
Propagative and Composable Nature [63.78619502896071]
信頼評価は、サイバーセキュリティ、ソーシャルコミュニケーション、レコメンダシステムなど、多くのアプリケーションにとって重要である。
本稿では,信頼グラフの伝播性および構成性を考慮した新しい信頼評価手法TrustGNNを提案する。
具体的には、TrustGNNは、異なる伝播過程のための特定の伝播パターンを設計し、新しい信頼を生み出すための異なる伝播過程の貢献を区別する。
論文 参考訳(メタデータ) (2022-05-25T13:57:03Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - Towards Time-Aware Context-Aware Deep Trust Prediction in Online Social
Networks [0.4061135251278187]
信頼は、情報ソースが信頼できるか、誰と共有すべきか、誰から情報を受け入れるべきかを決定する尺度として定義できる。
ソーシャルスパマー検出、フェイクニュース検出、リツイート行動検出、レコメンデーションシステムなど、オンラインソーシャルネットワーク(OSN)への信頼のためのいくつかのアプリケーションがある。
信頼予測は、現在接続されていない2人のユーザー間の新しい信頼関係を予測するプロセスである。
論文 参考訳(メタデータ) (2020-03-21T01:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。