論文の概要: Uncertainty-Aware Explainable Federated Learning
- arxiv url: http://arxiv.org/abs/2503.05194v1
- Date: Fri, 07 Mar 2025 07:29:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:02.018422
- Title: Uncertainty-Aware Explainable Federated Learning
- Title(参考訳): 不確実性を考慮した説明可能なフェデレーション学習
- Authors: Yanci Zhang, Han Yu,
- Abstract要約: Federated Learning(FL)は、データのプライバシ保護を強化するための機械学習のパラダイムである。
これらの課題に対処するために,不確実性を考慮したeXplainable Federated Learning (UncertainXFL)を提案する。
FL設定下で意思決定プロセスの説明を生成し、これらの説明の不確実性に関する情報を提供する。
- 参考スコア(独自算出の注目度): 18.088273106409666
- License:
- Abstract: Federated Learning (FL) is a collaborative machine learning paradigm for enhancing data privacy preservation. Its privacy-preserving nature complicates the explanation of the decision-making processes and the evaluation of the reliability of the generated explanations. In this paper, we propose the Uncertainty-aware eXplainable Federated Learning (UncertainXFL) to address these challenges. It generates explanations for decision-making processes under FL settings and provides information regarding the uncertainty of these explanations. UncertainXFL is the first framework to explicitly offer uncertainty evaluation for explanations within the FL context. Explanatory information is initially generated by the FL clients and then aggregated by the server in a comprehensive and conflict-free manner during FL training. The quality of the explanations, including the uncertainty score and tested validity, guides the FL training process by prioritizing clients with the most reliable explanations through higher weights during model aggregation. Extensive experimental evaluation results demonstrate that UncertainXFL achieves superior model accuracy and explanation accuracy, surpassing the current state-of-the-art model that does not incorporate uncertainty information by 2.71% and 1.77%, respectively. By integrating and quantifying uncertainty in the data into the explanation process, UncertainXFL not only clearly presents the explanation alongside its uncertainty, but also leverages this uncertainty to guide the FL training process, thereby enhancing the robustness and reliability of the resulting models.
- Abstract(参考訳): Federated Learning(FL)は、データのプライバシ保護を強化するための機械学習のパラダイムである。
そのプライバシー保護の性質は、意思決定プロセスの説明と、生成された説明の信頼性の評価を複雑にしている。
本稿では,これらの課題に対処するために,不確実性を考慮したeXplainable Federated Learning (UncertainXFL)を提案する。
FL設定下で意思決定プロセスの説明を生成し、これらの説明の不確実性に関する情報を提供する。
UncertainXFLは、FLコンテキスト内の説明に対して明確な不確実性評価を提供する最初のフレームワークである。
説明情報は最初、FLクライアントによって生成され、その後、FLトレーニング中に、包括的で矛盾のない方法でサーバによって集約される。
不確実性スコアや検証された妥当性を含む説明の質は、モデルの集約中により高い重みを通して最も信頼性の高い説明でクライアントを優先順位付けすることで、FLトレーニングプロセスの指針となる。
実験結果から,不確実性情報を2.71%,不確実性情報を1.77%も含まない現状のモデルよりも優れたモデル精度と説明精度が得られた。
データの不確実性を説明プロセスに統合し定量化することにより、不確実性とともに説明を明確化するだけでなく、この不確実性を活用してFLトレーニングプロセスのガイドを行い、結果のモデルの堅牢性と信頼性を向上させる。
関連論文リスト
- FedCert: Federated Accuracy Certification [8.34167718121698]
フェデレートラーニング(FL)は、機械学習モデルを分散的にトレーニングするための強力なパラダイムとして登場した。
従来の研究では、認定精度に基づいて、集中訓練におけるモデルの有効性を評価してきた。
本研究では,FLシステムのロバスト性を評価するためのFedCertという手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T01:19:09Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Quantifying Uncertainty in Natural Language Explanations of Large
Language Models [29.34960984639281]
大規模言語モデル (LLM) は、高スループット自然言語処理 (NLP) アプリケーションのための強力なツールとして、ますます使われている。
生成された説明の不確かさを定量化するために、$textitVerbalized Uncertainty$と$textitProbing Uncertainty$という2つの新しいメトリクスを提案します。
ベンチマークデータセットの実証分析により、言語化された不確実性は説明の信頼性の信頼できる見積りではないことが判明した。
論文 参考訳(メタデータ) (2023-11-06T21:14:40Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。