論文の概要: FedBook: A Unified Federated Graph Foundation Codebook with Intra-domain and Inter-domain Knowledge Modeling
- arxiv url: http://arxiv.org/abs/2510.07755v1
- Date: Thu, 09 Oct 2025 03:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.853969
- Title: FedBook: A Unified Federated Graph Foundation Codebook with Intra-domain and Inter-domain Knowledge Modeling
- Title(参考訳): FedBook: ドメイン内およびドメイン間知識モデリングを備えた統合グラフ基礎コードブック
- Authors: Zhengyu Wu, Yinlin Zhu, Xunkai Li, Ziang Qiu, Rong-Hua Li, Guoren Wang, Chenghu Zhou,
- Abstract要約: サーバサイドのフェデレーション事前トレーニング中にクライアントのローカルコードブックを集約する統合グラフ基盤コードブックであるFedBookを提案する。
FedBookは、独立した教師付き学習、FL/FGL、集中型GFMのフェデレーション適応、FedGFM技術など、21のベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 52.05684032172943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models have shown remarkable cross-domain generalization in language and vision, inspiring the development of graph foundation models (GFMs). However, existing GFMs typically assume centralized access to multi-domain graphs, which is often infeasible due to privacy and institutional constraints. Federated Graph Foundation Models (FedGFMs) address this limitation, but their effectiveness fundamentally hinges on constructing a robust global codebook that achieves intra-domain coherence by consolidating mutually reinforcing semantics within each domain, while also maintaining inter-domain diversity by retaining heterogeneous knowledge across domains. To this end, we propose FedBook, a unified federated graph foundation codebook that systematically aggregates clients' local codebooks during server-side federated pre-training. FedBook follows a two-phase process: (1) Intra-domain Collaboration, where low-frequency tokens are refined by referencing more semantically reliable high-frequency tokens across clients to enhance domain-specific coherence; and (2) Inter-domain Integration, where client contributions are weighted by the semantic distinctiveness of their codebooks during the aggregation of the global GFM, thereby preserving cross-domain diversity. Extensive experiments on 8 benchmarks across multiple domains and tasks demonstrate that FedBook consistently outperforms 21 baselines, including isolated supervised learning, FL/FGL, federated adaptations of centralized GFMs, and FedGFM techniques.
- Abstract(参考訳): 基礎モデルは言語と視覚において顕著なクロスドメインの一般化を示し、グラフ基礎モデル(GFM)の開発を刺激している。
しかしながら、既存のGFMは一般的に、プライバシや制度上の制約のためにしばしば実現不可能なマルチドメイングラフへの集中的なアクセスを前提としている。
Federated Graph Foundation Models (FedGFMs)は、この制限に対処するが、その効果は、ドメイン間の不均一な知識を維持しながら、ドメイン内のセマンティクスを相互に強化することでドメイン内のコヒーレンスを達成する堅牢なグローバルコードブックの構築に根ざしている。
この目的のために,サーバ側フェデレーション事前学習中にクライアントのローカルコードブックを体系的に集約する統合フェデレーショングラフ基盤コードブックであるFedBookを提案する。
FedBookは、(1)ドメイン内コラボレーション、(1)ドメイン固有のコヒーレンスを高めるためにクライアント間でよりセマンティックに信頼できる高頻度トークンを参照することで低周波トークンを洗練する、(2)グローバルなGFMの集約中にコードブックのセマンティックな特質によってクライアントのコントリビューションが重み付けされるドメイン間統合。
複数のドメインやタスクにわたる8つのベンチマークに関する大規模な実験では、FedBookは、独立した教師付き学習、FL/FGL、集中型GFMのフェデレーション適応、FedGFM技術など、21のベースラインを一貫して上回っている。
関連論文リスト
- Towards Effective Federated Graph Foundation Model via Mitigating Knowledge Entanglement [9.87623531653534]
グラフ基礎モデル(GFM)は強力なドメイン一般化を提供するが、通常は単一のマシンで訓練される。
我々は,新しい分散GFMトレーニングパラダイムであるFedGFMを提案する。
主な課題は知識の絡み合いであり、多分野の知識は区別できない表現に融合する。
2つのコアモジュールを持つ拡張フレームワークであるFedGFM+を,知識の絡み合いを軽減するために提案する。
論文 参考訳(メタデータ) (2025-05-19T04:06:32Z) - FedAlign: Federated Domain Generalization with Cross-Client Feature Alignment [2.4472081831862655]
Federated Learning (FL)は、直接的なデータ共有なしに協調的なモデルトレーニングのための分散パラダイムを提供する。
ドメイン一般化(DG)には、厳密なプライバシー制約、非i.d.ローカルデータ、ドメインの多様性の制限など、ユニークな課題がある。
我々はフェデレーション設定におけるDGを強化するために設計された軽量なプライバシ保護フレームワークであるFedAlignを紹介する。
論文 参考訳(メタデータ) (2025-01-26T11:17:32Z) - Federated Domain Generalization with Data-free On-server Matching Gradient [6.817783565501387]
ドメイン一般化(DG)は、未知のターゲットドメインに適切に一般化できるモデルとして、複数の既知のソースドメインから学習することを目的としている。
本稿では,分散ドメインからのドメイン情報を効率よく活用できるFedOMG(On-server Matching Gradient)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-24T17:20:22Z) - FedGCA: Global Consistent Augmentation Based Single-Source Federated Domain Generalization [29.989092118578103]
Federated Domain Generalization (FedDG) は、多ドメイントレーニングサンプルでドメインを見落とせるように、グローバルモデルをトレーニングすることを目的としている。
連合学習ネットワークのクライアントは、固有のサンプリングと時間制限のため、単一のIIDドメインに制限されることが多い。
本稿では,FedGCA(Federated Global Consistent Augmentation)法について紹介する。
論文 参考訳(メタデータ) (2024-09-23T02:24:46Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - HCDG: A Hierarchical Consistency Framework for Domain Generalization on
Medical Image Segmentation [33.623948922908184]
ドメイン一般化のための新しい階層的一貫性フレームワーク(HCDG)を提案する。
Extrinsic Consistencyでは、複数のソースドメインにまたがる知識を活用して、データレベルの一貫性を強制します。
Intrinsic Consistencyでは、デュアルタスクシナリオの下で同じインスタンスに対してタスクレベルの一貫性を実行します。
論文 参考訳(メタデータ) (2021-09-13T07:07:23Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。