論文の概要: Leveraging Optimal Transport for Distributed Two-Sample Testing: An Integrated Transportation Distance-based Framework
- arxiv url: http://arxiv.org/abs/2506.16047v1
- Date: Thu, 19 Jun 2025 05:59:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.952332
- Title: Leveraging Optimal Transport for Distributed Two-Sample Testing: An Integrated Transportation Distance-based Framework
- Title(参考訳): 分散二サンプルテストのための最適輸送の活用:統合移動距離ベースフレームワーク
- Authors: Zhengqi Lin, Yan Chen,
- Abstract要約: 本稿では,ITD(Integrated Transportation Distance)を用いた分散二サンプルテストのための新しいフレームワークを提案する。
データプライバシを保ちながら効率的な計算を可能にするために、分散環境での実装のための置換テスト手順が提案されている。
結果は、ITDが分散クライアント間で情報を効果的に集約し、個々のクライアントを調べる際に見逃される可能性のある微妙な分散シフトを検出することを示唆している。
- 参考スコア(独自算出の注目度): 2.65043787671605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel framework for distributed two-sample testing using the Integrated Transportation Distance (ITD), an extension of the Optimal Transport distance. The approach addresses the challenges of detecting distributional changes in decentralized learning or federated learning environments, where data privacy and heterogeneity are significant concerns. We provide theoretical foundations for the ITD, including convergence properties and asymptotic behavior. A permutation test procedure is proposed for practical implementation in distributed settings, allowing for efficient computation while preserving data privacy. The framework's performance is demonstrated through theoretical power analysis and extensive simulations, showing robust Type I error control and high power across various distributions and dimensions. The results indicate that ITD effectively aggregates information across distributed clients, detecting subtle distributional shifts that might be missed when examining individual clients. This work contributes to the growing field of distributed statistical inference, offering a powerful tool for two-sample testing in modern, decentralized data environments.
- Abstract(参考訳): 本稿では,最適輸送距離の拡張であるITD(Integrated Transport Distance)を用いた分散二サンプルテストのための新しいフレームワークを提案する。
このアプローチは、データプライバシと不均一性が重要な懸念事項である分散学習やフェデレーション学習環境における分散的変化を検出するという課題に対処する。
我々は、収束特性や漸近行動を含むITDの理論的基礎を提供する。
分散環境において,データプライバシを保ちながら効率的な計算を可能にするための置換テスト手順が提案されている。
このフレームワークの性能は、理論的なパワー分析と広範囲なシミュレーションを通じて実証され、様々な分布と次元にわたる堅牢なタイプIエラー制御と高出力を示す。
その結果、ITDは分散クライアント間で情報を効果的に集約し、個々のクライアントを調べる際に見逃される可能性のある微妙な分散シフトを検出することが示唆された。
この研究は分散統計推論の分野の成長に寄与し、現代の分散化されたデータ環境における2サンプルテストのための強力なツールを提供する。
関連論文リスト
- Domain Adaptation and Entanglement: an Optimal Transport Perspective [86.24617989187988]
現在の機械学習システムは分散シフト(DS)に直面して脆弱であり、そこでは、システムがテストされる対象の分布は、システムのトレーニングに使用されるソースの分布とは異なる。
ディープニューラルネットワークでは、教師なしドメイン適応(UDA)のための一般的なフレームワークがドメインマッチングである。
本稿では,UDA問題を解析する最適な輸送量に基づく新しい境界を導出する。
論文 参考訳(メタデータ) (2025-03-11T08:10:03Z) - Decentralizing Test-time Adaptation under Heterogeneous Data Streams [21.40129321379529]
テスト時間適応(TTA)は、トレーニングとテストデータの分散シフトに対処する上で、有望であることを示している。
以前の試みは、絶えず変化する環境を扱うために、時間とともにモデル微調整を安定化するだけであった。
本稿では、異種データストリーム下でのTTAについて、現在のモデル中心の制限を超えて検討する。
論文 参考訳(メタデータ) (2024-11-16T12:29:59Z) - Optimal Aggregation of Prediction Intervals under Unsupervised Domain Shift [9.387706860375461]
分散シフトは、基礎となるデータ生成プロセスが変化したときに発生し、モデルの性能のずれにつながる。
予測間隔は、その基礎となる分布によって引き起こされる不確実性を特徴づける重要なツールとして機能する。
予測区間を集約し,最小の幅と対象領域を適切にカバーする手法を提案する。
論文 参考訳(メタデータ) (2024-05-16T17:55:42Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - pSTarC: Pseudo Source Guided Target Clustering for Fully Test-Time
Adaptation [15.621092104244003]
テスト時間適応(TTA)は機械学習において重要な概念であり、モデルが現実世界のシナリオでうまく機能することを可能にする。
そこで本研究では,TTAの比較的未探索領域を実世界のドメインシフト下で解決する手法として,擬似ソースガイドターゲットクラスタリング(pSTarC)を提案する。
論文 参考訳(メタデータ) (2023-09-02T07:13:47Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - An Optimal Transport Approach to Personalized Federated Learning [41.27887358989414]
フェデレートラーニングは、多くの分散クライアントのローカルデータを使用してモデルをトレーニングすることを目的としている。
連合学習における重要な課題は、クライアントにまたがるデータサンプルが同一に分散されないことだ。
最適輸送(FedOT)に基づく新しい個人化フェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T10:05:49Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。