論文の概要: Federated Concept-Based Models: Interpretable models with distributed supervision
- arxiv url: http://arxiv.org/abs/2602.04093v1
- Date: Wed, 04 Feb 2026 00:04:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.316419
- Title: Federated Concept-Based Models: Interpretable models with distributed supervision
- Title(参考訳): フェデレートされた概念ベースモデル:分散監視を用いた解釈可能なモデル
- Authors: Dario Fenoglio, Arianna Casanova, Francesco De Santis, Mohan Li, Gabriele Dominici, Johannes Schneider, Martin Gjoreski, Marc Langheinrich, Pietro Barbiero, Giovanni De Felice,
- Abstract要約: 概念ベースモデル(CM)は、人間の理解可能な概念の予測を基礎として深層学習における解釈可能性を高める。
しかし、概念アノテーションは高価であり、単一のデータソース内で大規模に利用できることは滅多にない。
本稿では,F-CM(Federated Concept-based Models)を提案する。
- 参考スコア(独自算出の注目度): 18.11830748487309
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept-based models (CMs) enhance interpretability in deep learning by grounding predictions in human-understandable concepts. However, concept annotations are expensive to obtain and rarely available at scale within a single data source. Federated learning (FL) could alleviate this limitation by enabling cross-institutional training that leverages concept annotations distributed across multiple data owners. Yet, FL lacks interpretable modeling paradigms. Integrating CMs with FL is non-trivial: CMs assume a fixed concept space and a predefined model architecture, whereas real-world FL is heterogeneous and non-stationary, with institutions joining over time and bringing new supervision. In this work, we propose Federated Concept-based Models (F-CMs), a new methodology for deploying CMs in evolving FL settings. F-CMs aggregate concept-level information across institutions and efficiently adapt the model architecture in response to changes in the available concept supervision, while preserving institutional privacy. Empirically, F-CMs preserve the accuracy and intervention effectiveness of training settings with full concept supervision, while outperforming non-adaptive federated baselines. Notably, F-CMs enable interpretable inference on concepts not available to a given institution, a key novelty with respect to existing approaches.
- Abstract(参考訳): 概念ベースモデル(CM)は、人間の理解可能な概念の予測を基礎として深層学習における解釈可能性を高める。
しかし、概念アノテーションは高価であり、単一のデータソース内で大規模に利用できることは滅多にない。
フェデレートラーニング(FL)は、複数のデータ所有者に分散した概念アノテーションを活用するクロスインスティカルトレーニングを可能にすることで、この制限を軽減することができる。
しかし、FLには解釈可能なモデリングパラダイムが欠けている。
CMは固定概念空間と事前定義されたモデルアーキテクチャを仮定するが、現実のFLは不均一で非定常であり、機関は時間とともに参加し、新たな監督をもたらす。
本稿では,F-CM(Federated Concept-based Models)を提案する。
F-CMは、機関間の概念レベルの情報を集約し、利用可能な概念監督の変更に応じてモデルアーキテクチャを効果的に適応し、機関のプライバシを保存する。
実証的に、F-CMは、完全な概念監督を伴うトレーニング設定の精度と介入効果を保ちつつ、非適応的連合ベースラインを上回ります。
特に、F-CMは、既存のアプローチに関して重要な新規性である、ある機関で利用できない概念の解釈可能な推論を可能にする。
関連論文リスト
- There Was Never a Bottleneck in Concept Bottleneck Models [27.888718857850822]
コンセプト・ボトルネック・モデル(CBM)はこの問題を緩和するための有望なアプローチとして登場した。
コンポーネントが概念を予測できるという事実は、その概念に関する情報のみを符号化することを保証しません。
本稿では,最小概念ボトルネックモデル(MCBM)を提案する。このモデルでは,情報ボトルネック(IB)の目的を組み込んで,各表現要素を制約し,対応する概念に関する情報のみを保持する。
論文 参考訳(メタデータ) (2025-06-05T10:50:42Z) - Modular Federated Learning: A Meta-Framework Perspective [1.9067130892610522]
フェデレートラーニング(FL)は、プライバシを保持しながら、分散機械学習トレーニングを可能にする。
急速な進歩にもかかわらず、FLは複雑で多面体である。
モジュールコンポーネントの合成としてFLを概念化したメタフレームワークの観点を導入する。
論文 参考訳(メタデータ) (2025-05-13T15:04:55Z) - Concept-Based Unsupervised Domain Adaptation [18.596800441501443]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念を通して予測を説明することによって、解釈可能性を高める。
CBMは通常、トレーニングとテストデータが同じ分布を共有していると仮定する。
この仮定は、しばしばドメインシフトの下で失敗し、性能が低下し、一般化が貧弱になる。
論文 参考訳(メタデータ) (2025-05-08T12:52:02Z) - Concept Layers: Enhancing Interpretability and Intervenability via LLM Conceptualization [2.163881720692685]
本稿では,概念層をアーキテクチャに組み込むことにより,解釈可能性とインターベンタビリティを既存モデルに組み込む新しい手法を提案する。
我々のアプローチは、モデルの内部ベクトル表現を、再構成してモデルにフィードバックする前に、概念的で説明可能なベクトル空間に投影する。
複数のタスクにまたがるCLを評価し、本来のモデルの性能と合意を維持しつつ、意味のある介入を可能にしていることを示す。
論文 参考訳(メタデータ) (2025-02-19T11:10:19Z) - How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。