論文の概要: Permutation-Invariant Representation Learning for Robust and Privacy-Preserving Feature Selection
- arxiv url: http://arxiv.org/abs/2510.05535v1
- Date: Tue, 07 Oct 2025 02:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.078823
- Title: Permutation-Invariant Representation Learning for Robust and Privacy-Preserving Feature Selection
- Title(参考訳): ロバスト・プライバシ保護機能選択のための置換不変表現学習
- Authors: Rui Liu, Tao Zhe, Yanjie Fu, Feng Xia, Ted Senator, Dongjie Wang,
- Abstract要約: 既存のメソッドは、複雑な機能のインタラクションをキャプチャし、さまざまなアプリケーションシナリオに適応するのに苦労することが多い。
ポリシー誘導型検索に置換不変な埋め込みを統合する新しいフレームワークを提案する。
実際には、ローカルクライアント間のデータは高度に不均衡であり、不均一であり、厳格なプライバシー規制によって制限されている。
- 参考スコア(独自算出の注目度): 28.951637174740203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature selection eliminates redundancy among features to improve downstream task performance while reducing computational overhead. Existing methods often struggle to capture intricate feature interactions and adapt across diverse application scenarios. Recent advances employ generative intelligence to alleviate these drawbacks. However, these methods remain constrained by permutation sensitivity in embedding and reliance on convexity assumptions in gradient-based search. To address these limitations, our initial work introduces a novel framework that integrates permutation-invariant embedding with policy-guided search. Although effective, it still left opportunities to adapt to realistic distributed scenarios. In practice, data across local clients is highly imbalanced, heterogeneous and constrained by strict privacy regulations, limiting direct sharing. These challenges highlight the need for a framework that can integrate feature selection knowledge across clients without exposing sensitive information. In this extended journal version, we advance the framework from two perspectives: 1) developing a privacy-preserving knowledge fusion strategy to derive a unified representation space without sharing sensitive raw data. 2) incorporating a sample-aware weighting strategy to address distributional imbalance among heterogeneous local clients. Extensive experiments validate the effectiveness, robustness, and efficiency of our framework. The results further demonstrate its strong generalization ability in federated learning scenarios. The code and data are publicly available: https://anonymous.4open.science/r/FedCAPS-08BF.
- Abstract(参考訳): 機能選択は、ダウンストリームタスクのパフォーマンスを改善するために、計算オーバーヘッドを減らしながら、機能間の冗長性を排除します。
既存のメソッドは、複雑な機能のインタラクションをキャプチャして、さまざまなアプリケーションシナリオに適応するのに苦労することが多い。
近年の進歩は、これらの欠点を軽減するために、生成的知性を活用している。
しかし、これらの手法は、埋め込みにおける置換感度と勾配に基づく探索における凸性仮定に依存して制約される。
これらの制約に対処するため、ポリシー誘導検索に置換不変な埋め込みを統合する新しいフレームワークを導入する。
効果はあるものの、現実的な分散シナリオに適応する機会は依然として残っていた。
実際には、ローカルクライアント間のデータは、非常に不均衡で、不均一で、厳格なプライバシー規制によって制約され、直接の共有が制限される。
これらの課題は、機密情報を公開せずにクライアント間で機能選択の知識を統合できるフレームワークの必要性を強調している。
この拡張ジャーナルバージョンでは、2つの視点からフレームワークを前進させます。
1)機密データを共有せずに統一表現空間を導出するプライバシー保護知識融合戦略の開発。
2) 異種ローカルクライアント間の分散不均衡に対処するためのサンプル認識重み付け戦略を取り入れた。
大規模な実験は、我々のフレームワークの有効性、堅牢性、効率性を検証します。
さらに,連合型学習シナリオにおいて,その強力な一般化能力を示す。
コードとデータは、https://anonymous.4open.science/r/FedCAPS-08BFで公開されている。
関連論文リスト
- Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - PNCS:Power-Norm Cosine Similarity for Diverse Client Selection in Federated Learning [12.463189811153121]
フェデレートラーニング(FL)は、複数のソースから多様なデータセットを活用するための強力なパラダイムとして登場した。
本稿では,PNCS(Power-Norm Cosine similarity)を利用した新しいFLフレームワークを提案する。
さまざまなデータパーティションにまたがるVGG16モデルによる実験では、最先端のメソッドよりも一貫した改善が示されている。
論文 参考訳(メタデータ) (2025-06-18T23:49:48Z) - Continuous Optimization for Feature Selection with Permutation-Invariant Embedding and Policy-Guided Search [31.460557834760873]
我々は,特徴選択の知識を連続的な埋め込み空間に保存するエンコーダ・デコーダパラダイムを開発した。
埋め込み空間の探索を指導するために,政策に基づく強化学習アプローチも採用している。
論文 参考訳(メタデータ) (2025-05-16T18:08:16Z) - Fast2comm:Collaborative perception combined with prior knowledge [2.2809858115207664]
我々は,従来の知識に基づく協調認識フレームワークであるFast2commを提案する。
具体的には,前景と背景を効果的に区別する事前教師付き信頼度特徴生成手法を提案する。
また,GTバウンディングボックスを用いた空間的事前特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-04-30T02:32:47Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Momentum Benefits Non-IID Federated Learning Simply and Provably [22.800862422479913]
フェデレートラーニングは大規模機械学習の強力なパラダイムである。
FedAvgとSCAFFOLDは、これらの課題に対処する2つの顕著なアルゴリズムである。
本稿では,FedAvgとSCAFFOLDの性能向上のための運動量の利用について検討する。
論文 参考訳(メタデータ) (2023-06-28T18:52:27Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。