論文の概要: ModShift: Model Privacy via Designed Shifts
- arxiv url: http://arxiv.org/abs/2507.20060v1
- Date: Sat, 26 Jul 2025 21:00:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.784407
- Title: ModShift: Model Privacy via Designed Shifts
- Title(参考訳): ModShift: 設計されたシフトによるモデルのプライバシ
- Authors: Nomaan A. Kherani, Urbashi Mitra,
- Abstract要約: フェデレーション学習における盗聴者に対するモデルのプライバシを保護するために、シフトが導入される。
モデル更新のフィッシャー情報行列をシフトした更新から導出し、特異点まで駆動する。
提案手法は,ノイズ注入方式と比較して,より高いモデルシフトを実現する。
- 参考スコア(独自算出の注目度): 18.035417008213077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, shifts are introduced to preserve model privacy against an eavesdropper in federated learning. Model learning is treated as a parameter estimation problem. This perspective allows us to derive the Fisher Information matrix of the model updates from the shifted updates and drive them to singularity, thus posing a hard estimation problem for Eve. The shifts are securely shared with the central server to maintain model accuracy at the server and participating devices. A convergence test is proposed to detect if model updates have been tampered with and we show that our scheme passes this test. Numerical results show that our scheme achieves a higher model shift when compared to a noise injection scheme while requiring a lesser bandwidth secret channel.
- Abstract(参考訳): 本稿では,フェデレート学習における盗聴者に対するモデルプライバシ保護のためのシフトについて述べる。
モデル学習はパラメータ推定問題として扱われる。
この観点から、モデル更新のフィッシャー情報行列をシフトした更新から導出し、特異点に推し進めることで、イヴにとって難しい推定問題を引き起こすことができる。
シフトは中央サーバとセキュアに共有され、サーバおよび参加デバイスにおけるモデルの精度が維持される。
モデル更新が改ざんされているかどうかを検知するために収束試験を提案し,本試験に合格したことを示す。
提案手法は,低帯域幅の秘密チャネルを必要としながら,ノイズ注入方式と比較して高いモデルシフトを実現することを示す。
関連論文リスト
- CNS-Bench: Benchmarking Image Classifier Robustness Under Continuous Nuisance Shifts [67.48102304531734]
我々は,連続ニュアンスシフトベンチマークであるCNS-Benchを導入し,連続かつ現実的なニュアンスシフトのための画像分類器の堅牢性を定量化する。
本稿では,従来の手法よりも優れたフィルタリング機構を提案し,生成モデルによる信頼性の高いベンチマークを可能にする。
論文 参考訳(メタデータ) (2025-07-23T16:15:48Z) - Temporal Test-Time Adaptation with State-Space Models [4.248760709042802]
テストサンプルにモデルを適用することは、パフォーマンスの低下を軽減するのに役立ちます。
ほとんどの試験時間適応法は、合成汚職シフトに重点を置いている。
本稿では,時相分布シフトに対応する確率的状態空間モデルSTADを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:18:49Z) - Trust the Model Where It Trusts Itself -- Model-Based Actor-Critic with Uncertainty-Aware Rollout Adaption [4.664767161598515]
ダイナスタイルモデルベース強化学習(MBRL)はモデルベースロールアウトを通じてモデルフリーエージェントと予測遷移モデルを組み合わせる。
そこで本研究では,データ効率と性能の大幅な向上を図り,使い易いロールアウト機構を提案する。
論文 参考訳(メタデータ) (2024-05-29T11:53:07Z) - Robustness-Congruent Adversarial Training for Secure Machine Learning Model Updates [13.247291916609118]
新しく更新されたモデルが、前のモデルが犯していないミスを犯す可能性があることを示す。
パフォーマンスのレグレッションとしてユーザによって経験されるネガティブなフリップ。
特に、その敵の堅牢性を改善するためにモデルを更新するとき、以前はいくつかの入力に対する非効率な敵攻撃が成功しうる。
本稿では,この課題に対処するために,ロバストネス・コングロレント・逆行訓練という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - Federated Topic Model and Model Pruning Based on Variational Autoencoder [14.737942599204064]
フェデレートされたトピックモデリングにより、複数のパーティがデータのプライバシを保護しながらモデルを共同でトレーニングできる。
本稿では,各ノードのプライバシを確保しつつ,フェデレートされたトピックモデルを確立する手法を提案し,ニューラルネットワークモデルプルーニングを用いてモデルを高速化する。
実験結果から,フェデレートされたトピックモデルプルーニングは,モデルの性能を確保しつつ,モデルのトレーニング速度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-01T06:00:14Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Computer Model Calibration with Time Series Data using Deep Learning and
Quantile Regression [1.6758573326215689]
既存の標準校正フレームワークは、モデル出力と観測データが高次元依存データである場合、推論の問題に悩まされる。
モデル出力と入力パラメータの逆関係を直接エミュレートする長期記憶層を持つディープニューラルネットワーク(DNN)に基づく新しいキャリブレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-29T22:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。