論文の概要: PaTAS: A Parallel System for Trust Propagation in Neural Networks Using Subjective Logic
- arxiv url: http://arxiv.org/abs/2511.20586v2
- Date: Wed, 26 Nov 2025 09:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 14:46:34.529658
- Title: PaTAS: A Parallel System for Trust Propagation in Neural Networks Using Subjective Logic
- Title(参考訳): PaTAS: 主観論理を用いたニューラルネットワークにおける信頼伝播のための並列システム
- Authors: Koffi Ismael Ouattara, Ioannis Krontiris, Theo Dimitrakos, Dennis Eisermann, Frank Kargl,
- Abstract要約: 本稿では,ニューラルネットワークの信頼をモデル化し,伝播するフレームワークであるPaTASを紹介する。
実世界および敵対的データセットの実験は、PaTASが解釈可能、対称性、収束信頼推定を生成することを示した。
- 参考スコア(独自算出の注目度): 1.8485970721272895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthiness has become a key requirement for the deployment of artificial intelligence systems in safety-critical applications. Conventional evaluation metrics such as accuracy and precision fail to capture uncertainty or the reliability of model predictions, particularly under adversarial or degraded conditions. This paper introduces the Parallel Trust Assessment System (PaTAS), a framework for modeling and propagating trust in neural networks using Subjective Logic (SL). PaTAS operates in parallel with standard neural computation through Trust Nodes and Trust Functions that propagate input, parameter, and activation trust across the network. The framework defines a Parameter Trust Update mechanism to refine parameter reliability during training and an Inference-Path Trust Assessment (IPTA) method to compute instance-specific trust at inference. Experiments on real-world and adversarial datasets demonstrate that PaTAS produces interpretable, symmetric, and convergent trust estimates that complement accuracy and expose reliability gaps in poisoned, biased, or uncertain data scenarios. The results show that PaTAS effectively distinguishes between benign and adversarial inputs and identifies cases where model confidence diverges from actual reliability. By enabling transparent and quantifiable trust reasoning within neural architectures, PaTAS provides a principled foundation for evaluating model reliability across the AI lifecycle.
- Abstract(参考訳): 信頼性は、安全クリティカルなアプリケーションに人工知能システムを展開する上で重要な要件となっている。
精度や精度などの従来の評価指標は、特に逆境や劣化した条件下で、モデル予測の不確実性や信頼性を捉えることができない。
本稿では、主観論理(SL)を用いたニューラルネットワークの信頼をモデル化し、伝播するフレームワークであるPaTAS(Parallel Trust Assessment System)を紹介する。
PaTASは、ネットワーク全体の入力、パラメータ、アクティベーション信頼を伝播するTrust NodesとTrust Functionsを通じて、標準的なニューラルネットワークと並行して動作する。
このフレームワークは、トレーニング中のパラメータ信頼性を洗練するためのパラメータ信頼更新メカニズムと、推論時にインスタンス固有の信頼を計算するための推論パス信頼評価(IPTA)メソッドを定義する。
実世界のデータセットと敵対的なデータセットの実験は、PaTASが正確さを補完し、有毒、偏り、不確実なデータシナリオにおける信頼性ギャップを露呈する解釈可能、対称性、収束信頼の推定を生成することを示した。
その結果,PaTASはベニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグナグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグナグニグニグニグニグニ
ニューラルネットワーク内で透過的で定量的な信頼推論を可能にすることによって、PaTASは、AIライフサイクル全体にわたってモデルの信頼性を評価するための、原則化された基盤を提供する。
関連論文リスト
- Reliable Explanations or Random Noise? A Reliability Metric for XAI [6.948460965107209]
本研究では、4つの信頼性公理の下で説明安定性を定量化する指標である説明信頼性指数(ERI)を紹介する。
ERIは、説明信頼性の原則的評価を可能にし、より信頼できるAI(XAI)システムをサポートする。
論文 参考訳(メタデータ) (2026-02-04T22:04:07Z) - Trust in One Round: Confidence Estimation for Large Language Models via Structural Signals [13.89434979851652]
大規模言語モデル(LLM)は、エラーが社会的、科学的、安全コストの高い領域にますます展開されている。
本稿では,出力の正確性を予測する単一パスモデル依存フレームワークであるStructure Confidenceを提案する。
論文 参考訳(メタデータ) (2026-02-01T02:35:59Z) - Mind the Generation Process: Fine-Grained Confidence Estimation During LLM Generation [63.49409574310576]
大規模言語モデル(LLM)は自信過剰を示し、信頼度の高いスコアを誤った予測に割り当てる。
本研究では,テキスト生成中に高精度できめ細かな信頼スコアを提供する信頼度推定手法であるFineCEを紹介する。
論文で使用されたコードとすべてのベースラインはGitHubで公開されている。
論文 参考訳(メタデータ) (2025-08-16T13:29:35Z) - A Trustworthy Method for Multimodal Emotion Recognition [5.249683572771824]
信頼感情認識(TER)と呼ばれる新しい感情認識手法を提案する。
TERは、信頼度値に基づいて複数のモダリティの結果を組み合わせて、信頼された予測を出力する。
TERは、ミュージックビデオで最先端のパフォーマンスを達成し、82.40%のAccを達成した。
論文 参考訳(メタデータ) (2025-08-11T05:08:31Z) - Network Inversion for Generating Confidently Classified Counterfeits [11.599035626374409]
視覚分類において、自信のある予測をもたらす入力を生成することは、モデルの振る舞いと信頼性を理解するための鍵となる。
我々はネットワーク・インバージョン・テクニックを拡張してCCC(Confidently Classified Counterfeits)を生成する。
CCCは信頼性に関するモデル中心の視点を提供し、モデルが完全に合成されたアウト・オブ・ディストリビューション・インプットに高い信頼を割り当てることを明らかにする。
論文 参考訳(メタデータ) (2025-03-26T03:26:49Z) - Quantifying Calibration Error in Neural Networks Through Evidence-Based Theory [1.9832598896178517]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。