論文の概要: FORLA:Federated Object-centric Representation Learning with Slot Attention
- arxiv url: http://arxiv.org/abs/2506.02964v1
- Date: Tue, 03 Jun 2025 14:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.428064
- Title: FORLA:Federated Object-centric Representation Learning with Slot Attention
- Title(参考訳): FORLA:スロット注意によるオブジェクト指向表現学習
- Authors: Guiqiu Liao, Matjaz Jogan, Eric Eaton, Daniel A. Hashimoto,
- Abstract要約: FORLAは、フェデレートされたオブジェクト指向表現学習と特徴適応のための新しいフレームワークである。
学生は基礎モデルから完全な特徴を再構築することを学び、教師は適応された低次元の特徴を再構築する。
複数の実世界のデータセットの実験では、FOLAがドメイン間でうまく一般化されるコンパクトで普遍的な表現を学習していることが示されている。
- 参考スコア(独自算出の注目度): 11.037091276465734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning efficient visual representations across heterogeneous unlabeled datasets remains a central challenge in federated learning. Effective federated representations require features that are jointly informative across clients while disentangling domain-specific factors without supervision. We introduce FORLA, a novel framework for federated object-centric representation learning and feature adaptation across clients using unsupervised slot attention. At the core of our method is a shared feature adapter, trained collaboratively across clients to adapt features from foundation models, and a shared slot attention module that learns to reconstruct the adapted features. To optimize this adapter, we design a two-branch student-teacher architecture. In each client, a student decoder learns to reconstruct full features from foundation models, while a teacher decoder reconstructs their adapted, low-dimensional counterpart. The shared slot attention module bridges cross-domain learning by aligning object-level representations across clients. Experiments in multiple real-world datasets show that our framework not only outperforms centralized baselines on object discovery but also learns a compact, universal representation that generalizes well across domains. This work highlights federated slot attention as an effective tool for scalable, unsupervised visual representation learning from cross-domain data with distributed concepts.
- Abstract(参考訳): 不均一なラベル付きデータセット間で効率的な視覚表現を学習することは、フェデレーション学習における中心的な課題である。
効果的なフェデレートされた表現には、クライアント間で共同で情報を提供する機能が必要です。
我々は、教師なしスロットアテンションを用いて、クライアント間でのオブジェクト中心表現学習と特徴適応のための新しいフレームワークであるFOLAを紹介した。
提案手法のコアとなるのは、ファンデーションモデルから特徴を適応させるためにクライアント間で協調的に訓練された共有機能アダプタと、適応された特徴を再構築することを学ぶ共有スロットアテンションモジュールである。
このアダプタを最適化するために,2ブランチの学生-教師アーキテクチャを設計する。
各クライアントにおいて、生徒デコーダは基礎モデルから完全な特徴を再構築することを学び、教師デコーダは適応された低次元の特徴を再構築する。
共有スロットアテンションモジュールは、クライアント間でオブジェクトレベルの表現を調整することで、ドメイン間の学習をブリッジする。
複数の実世界のデータセットでの実験では、我々のフレームワークはオブジェクト発見の集中的ベースラインを上回るだけでなく、ドメイン間でうまく一般化されるコンパクトで普遍的な表現も学んでいます。
この研究は、分散概念を持つクロスドメインデータから、スケーラブルで教師なしの視覚的表現学習のための効果的なツールとして、フェデレーション付きスロットアテンションを強調している。
関連論文リスト
- FedRIR: Rethinking Information Representation in Federated Learning [7.765917932796046]
ネットワークエッジのモバイルおよびWeb-of-Things(WoT)デバイスは、機械学習アプリケーションのために膨大な量のデータを生成する。
ネットワークエッジのモバイルおよびWeb-of-Things(WoT)デバイスは、機械学習アプリケーションのために膨大な量のデータを生成する。
論文 参考訳(メタデータ) (2025-02-02T17:17:29Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。