論文の概要: FedDTRE: Federated Dialogue Generation Models Powered by Trustworthiness Evaluation
- arxiv url: http://arxiv.org/abs/2510.08058v1
- Date: Thu, 09 Oct 2025 10:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.019108
- Title: FedDTRE: Federated Dialogue Generation Models Powered by Trustworthiness Evaluation
- Title(参考訳): FedDTRE:信頼度評価によるフェデレーションダイアログ生成モデル
- Authors: Shule Lu, Lingxiang Wang, Sijia Wen, Ziwei Wang, Hainan Zhang,
- Abstract要約: 我々は,信頼度評価に基づく対話生成のためのフェデレーション適応アグリゲーション戦略であるFedDTREを提案する。
我々は,FedDTREが対話モデルの性能を改善し,対話生成の質を向上させることを示す。
- 参考スコア(独自算出の注目度): 11.335723658154606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of artificial intelligence, dialogue systems have become a prominent form of human-computer interaction. However, traditional centralized or fully local training approaches face challenges in balancing privacy preservation and personalization due to data privacy concerns and heterogeneous device capabilities. Federated learning, as a representative distributed paradigm, offers a promising solution. However, existing methods often suffer from overfitting under limited client data and tend to forget global information after multiple training rounds, leading to poor generalization. To address these issues, we propose FedDTRE, a Federated adaptive aggregation strategy for Dialogue generation based on Trustworthiness Evaluation. Instead of directly replacing local models with the global model, FedDTRE leverages trustworthiness scores of both global and local models on a fairness-oriented evaluation dataset to dynamically regulate the global model's contribution during local updates. Experimental results demonstrate that FedDTRE can improve dialogue model performance and enhance the quality of dialogue generation.
- Abstract(参考訳): 人工知能の急速な発展に伴い、対話システムは人間とコンピュータの相互作用の顕著な形態となった。
しかし、従来の集中型あるいは完全にローカルなトレーニングアプローチは、データのプライバシに関する懸念と不均一なデバイス機能のために、プライバシ保護とパーソナライゼーションのバランスをとる上で、課題に直面している。
分散パラダイムの代表としてのフェデレーション学習は、有望なソリューションを提供する。
しかし、既存の手法は、限られたクライアントデータの下で過度な適合に悩まされ、複数のトレーニングラウンドの後に世界的な情報を忘れてしまう傾向にあり、一般化の低さに繋がる。
これらの課題に対処するため,信頼度評価に基づく対話生成のためのフェデレーション適応アグリゲーション戦略であるFedDTREを提案する。
ローカルモデルを直接グローバルモデルに置き換える代わりに、FedDTREは、グローバルモデルとローカルモデルの両方の信頼性スコアをフェアネス指向の評価データセットで活用し、ローカル更新中のグローバルモデルのコントリビューションを動的に調整する。
実験結果から,FedDTREは対話モデルの性能を改善し,対話生成の質を高めることができることがわかった。
関連論文リスト
- Learning Critically: Selective Self Distillation in Federated Learning on Non-IID Data [17.624808621195978]
フェデレートラーニングのための選択的自己蒸留法(FedSSD)を提案する。
FedSSDは、グローバルモデルの知識を自己蒸留することで、ローカル更新に適応的な制約を課している。
他の最先端のFL法と比較して、より少ない通信ラウンドでの一般化と堅牢性を実現する。
論文 参考訳(メタデータ) (2025-04-20T18:06:55Z) - FedMM-X: A Trustworthy and Interpretable Framework for Federated Multi-Modal Learning in Dynamic Environments [0.0]
本稿では,分散化された動的環境における信頼性を確保するために,多モーダル推論によるフェデレーション学習を統一するフレームワークを提案する。
このアプローチはFedMM-Xと呼ばれ、クロスモーダル整合性チェック、クライアントレベルの解釈可能性メカニズム、動的信頼校正を利用する。
我々の発見は、現実の環境で堅牢で解釈可能で社会的に責任を負うAIシステムを開発するための道を開いた。
論文 参考訳(メタデータ) (2025-03-25T11:28:21Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - DAMe: Personalized Federated Social Event Detection with Dual Aggregation Mechanism [55.45581907514175]
本稿では,ソーシャルイベント検出のための二重集約機構,すなわちDAMeを用いた個人化学習フレームワークを提案する。
クライアントの好みに関する最大限の外部知識を提供するため,グローバルアグリゲーション戦略を導入する。
さらに、ローカルなオーバーフィッティングやクライアントドリフトを防止するために、グローバルなローカルイベント中心の制約を組み込んでいます。
論文 参考訳(メタデータ) (2024-09-01T04:56:41Z) - FedLoGe: Joint Local and Generic Federated Learning under Long-tailed
Data [46.29190753993415]
Federated Long-Tailed Learning (Fed-LT)は、分散化されたローカルクライアントから収集されたデータが、グローバルに普及しているロングテール分布を示すパラダイムである。
本稿では、Fed-LT(FedLoGe)におけるFederated Local and Generic Model Training(FedLoGe)というアプローチを紹介し、ローカルモデルとジェネリックモデルの両方のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-01-17T05:04:33Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Decentralised Person Re-Identification with Selective Knowledge
Aggregation [56.40855978874077]
既存の人物再識別(Re-ID)手法は、主に、モデル学習のためのコレクションにすべてのトレーニングデータを共有する集中型学習パラダイムに従っている。
グローバルに一般化されたモデル(サーバ)を構築するための分散(フェデレーション)Re-ID学習を導入した最近の2つの作品がある。
しかし、これらの手法は、個々のクライアントドメインのRe-IDタスクのパフォーマンスを最大化するために一般化されたモデルを適用する方法に乏しい。
我々は、モデルパーソナライゼーションと一般化のトレードオフを最適化するために、分散化されたRe-IDに対して、新しい選択的知識集約アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T18:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。