論文の概要: Reliable Imputed-Sample Assisted Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2501.06429v1
- Date: Sat, 11 Jan 2025 04:03:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:39.524999
- Title: Reliable Imputed-Sample Assisted Vertical Federated Learning
- Title(参考訳): 信頼度の高いインプットサンプレット型垂直的フェデレーション学習
- Authors: Yaopei Zeng, Lei Liu, Shaoguo Liu, Hongjian Dou, Baoyuan Wu, Li Liu,
- Abstract要約: Vertical Federated Learning (VFL)は、複数のパーティが生データを共有せずに、協力的にモデルをトレーニングできる、よく知られたFL版である。
既存のVFLアプローチでは、異なるパーティ間で重複するサンプルに焦点が当てられているが、それらのパフォーマンスはこれらのサンプルの限られた数によって制約され、多くの重複しないサンプルが探索されていない。
VFLモデルのトレーニングにおいて,信頼性の高いインプットサンプルを選択することで,非オーバーラップサンプルを効果的に活用する信頼性インプットサンプル支援(RISA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.71747200525197
- License:
- Abstract: Vertical Federated Learning (VFL) is a well-known FL variant that enables multiple parties to collaboratively train a model without sharing their raw data. Existing VFL approaches focus on overlapping samples among different parties, while their performance is constrained by the limited number of these samples, leaving numerous non-overlapping samples unexplored. Some previous work has explored techniques for imputing missing values in samples, but often without adequate attention to the quality of the imputed samples. To address this issue, we propose a Reliable Imputed-Sample Assisted (RISA) VFL framework to effectively exploit non-overlapping samples by selecting reliable imputed samples for training VFL models. Specifically, after imputing non-overlapping samples, we introduce evidence theory to estimate the uncertainty of imputed samples, and only samples with low uncertainty are selected. In this way, high-quality non-overlapping samples are utilized to improve VFL model. Experiments on two widely used datasets demonstrate the significant performance gains achieved by the RISA, especially with the limited overlapping samples, e.g., a 48% accuracy gain on CIFAR-10 with only 1% overlapping samples.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、複数のパーティが生データを共有せずに、協力的にモデルをトレーニングできる、よく知られたFL版である。
既存のVFLアプローチでは、異なるパーティ間で重複するサンプルに焦点が当てられているが、それらのパフォーマンスはこれらのサンプルの限られた数によって制約され、多くの重複しないサンプルが探索されていない。
これまでのいくつかの研究は、サンプルの欠落した値を出力する手法を探求してきたが、しばしば汚染されたサンプルの品質に十分な注意を払わなかった。
この問題に対処するために,信頼性の高いインプットサンプルを選択することで,重複しないサンプルを効果的に活用する,信頼性のあるインプットサンプル支援(RISA)フレームワークを提案する。
具体的には, 重複しないサンプルを送付した後, 不確かさを推定するエビデンス理論を導入し, 低い不確実性を有するサンプルのみを選択する。
このようにして、高品質な非重複サンプルを用いて、VFLモデルを改善する。
広く使用されている2つのデータセットの実験では、RSIが達成した顕著なパフォーマンス向上が示されており、特に限定的なオーバーラップサンプル(例:CIFAR-10)では、1%のオーバーラップサンプルで48%の精度向上が見られた。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - Detecting Adversarial Data by Probing Multiple Perturbations Using
Expected Perturbation Score [62.54911162109439]
逆方向検出は、自然分布と逆方向分布の差に基づいて、与えられたサンプルが逆方向であるかどうかを判定することを目的としている。
本研究では,様々な摂動後の標本の予測スコアであるEPS(pre expected perturbation score)を提案する。
EPSに基づく最大平均誤差(MMD)を,試験試料と自然試料との差を測定する指標として開発する。
論文 参考訳(メタデータ) (2023-05-25T13:14:58Z) - Bayesian Self-Supervised Contrastive Learning [16.903874675729952]
本稿では,BCL損失と呼ばれる新たな自己監督型コントラスト損失を提案する。
鍵となる考え方は、ベイズフレームワークの下で真の正のサンプルをサンプリングするために望ましいサンプリング分布を設計することである。
実験はBCL損失の有効性と優越性を検証した。
論文 参考訳(メタデータ) (2023-01-27T12:13:06Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Learning Fast Samplers for Diffusion Models by Differentiating Through
Sample Quality [44.37533757879762]
差分拡散サンプリングサーチ(DDSS)は,任意の事前学習拡散モデルに対して高速サンプリングを最適化する手法である。
また、拡散モデルのためのフレキシブルな非マルコフ型サンプルモデルのファミリーである一般化ガウス拡散モデル(GGDM)を提示する。
本手法は, 微調整や再学習の必要なく, 事前学習した拡散モデルと互換性がある。
論文 参考訳(メタデータ) (2022-02-11T18:53:18Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view Training [9.638604434238882]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。