論文の概要: Distributed Semi-supervised Fuzzy Regression with Interpolation
Consistency Regularization
- arxiv url: http://arxiv.org/abs/2209.09240v1
- Date: Sun, 18 Sep 2022 04:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-21 17:44:16.005538
- Title: Distributed Semi-supervised Fuzzy Regression with Interpolation
Consistency Regularization
- Title(参考訳): 補間整合性規則付き分散型半教師付きファジィ回帰
- Authors: Ye Shi, Leijie Zhang, Zehong Cao, and M. Tanveer, Chin-Teng Lin
- Abstract要約: ファジィif-then規則と一貫性規則付き分散半教師付きファジィ回帰(DSFR)モデルを提案する。
人工と実世界の両方のデータセットに対する実験結果から、提案したDSFRモデルは最先端のDSSLアルゴリズムよりもはるかに優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 38.16335448831723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, distributed semi-supervised learning (DSSL) algorithms have shown
their effectiveness in leveraging unlabeled samples over interconnected
networks, where agents cannot share their original data with each other and can
only communicate non-sensitive information with their neighbors. However,
existing DSSL algorithms cannot cope with data uncertainties and may suffer
from high computation and communication overhead problems. To handle these
issues, we propose a distributed semi-supervised fuzzy regression (DSFR) model
with fuzzy if-then rules and interpolation consistency regularization (ICR).
The ICR, which was proposed recently for semi-supervised problem, can force
decision boundaries to pass through sparse data areas, thus increasing model
robustness. However, its application in distributed scenarios has not been
considered yet. In this work, we proposed a distributed Fuzzy C-means (DFCM)
method and a distributed interpolation consistency regularization (DICR) built
on the well-known alternating direction method of multipliers to respectively
locate parameters in antecedent and consequent components of DSFR. Notably, the
DSFR model converges very fast since it does not involve back-propagation
procedure and is scalable to large-scale datasets benefiting from the
utilization of DFCM and DICR. Experiments results on both artificial and
real-world datasets show that the proposed DSFR model can achieve much better
performance than the state-of-the-art DSSL algorithm in terms of both loss
value and computational cost.
- Abstract(参考訳): 近年、分散半教師付き学習(DSSL)アルゴリズムは、エージェントが互いに元のデータを共有できず、隣人との非機密情報しか通信できないような、相互接続されたネットワーク上でラベルのないサンプルを活用する効果を示している。
しかし、既存のDSSLアルゴリズムはデータの不確実性に対処できず、高い計算と通信オーバーヘッドの問題に悩まされる可能性がある。
これらの問題に対処するために、ファジィif-thenルールと補間整合正則化(ICR)を備えた分散半教師付きファジィ回帰(DSFR)モデルを提案する。
半教師付き問題に対して最近提案されたICRは、決定境界をスパースデータ領域に通過させ、モデルロバスト性を高める。
しかし、分散シナリオでの応用はまだ検討されていない。
本研究では,分散ファジィ c-means (dfcm) 法と分散補間一貫性正規化法 (dicr) を提案し,dsfr の先行成分と連続成分のパラメータをそれぞれ同定した。
特に、DSFRモデルはバックプロパゲーション手順を含まないため非常に高速に収束し、DFCMとDICRの利用による大規模データセットにスケーラブルである。
人工的および実世界の両方のデータセットに対する実験結果から、DSFRモデルは損失値と計算コストの両方の観点から、最先端のDSSLアルゴリズムよりもはるかに優れた性能が得られることが示された。
関連論文リスト
- Wireless Federated Multi-Task LLM Fine-Tuning via Sparse-and-Orthogonal LoRA [61.12136997430116]
低ランク適応(LoRA)に基づく分散連合学習(DFL)により、マルチタスクデータセットを持つモバイルデバイスは、ローカルに更新されたパラメータを、無線接続を介して近隣デバイスのサブセットと交換することで、大きな言語モデル(LLM)を協調的に微調整することができる。
不均一データセットに微調整されたパラメータを直接集約すると、DFLライフサイクルの3つの主要な問題が発生する: (i) 微調整プロセス中に忘れる破滅的な知識、(ii) データの異種性に起因する更新方向の矛盾に起因する。
論文 参考訳(メタデータ) (2026-02-24T02:45:32Z) - Multivariate Time Series Data Imputation via Distributionally Robust Regularization [2.3351357479046717]
観測されたデータ分布と真のデータ分布の ミスマッチによる計算
分布ロバストな正規化インプタオブジェクト(DRIO)を提案する。
実験の結果、DRIOは不完全な非ランダム設定と不完全な非ランダム設定の両方で、一貫してインキュベーションを改善している。
論文 参考訳(メタデータ) (2026-01-31T18:15:03Z) - Distributionally Robust Federated Learning with Outlier Resilience [8.69285602685459]
本研究では, 分散的頑健なフェデレーション学習について, 明確な外部レジリエンスを用いて検討した。
我々は、ロバスト性証明を許容するトラクタブルなラグランジアンペナルティ最適化として問題を再構築する。
この改革に基づいて,分散外乱フェデレーション学習アルゴリズムを提案し,その収束保証を確立する。
論文 参考訳(メタデータ) (2025-09-29T08:42:12Z) - Imputation-Powered Inference [2.676349883103404]
Imputation-powered Inference (IPI) は、ブラックボックス計算の柔軟性と、完全に観測されたデータを用いたバイアス補正を組み合わせたモデルリーンフレームワークである。
IPIは、二重頑健な推定値とナイーブな計算値の両方が名目的カバレッジを達成できない設定において、統計的妥当性を維持しながら、完全ケース分析と比較して、サブポピュレーション効率を大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2025-09-17T07:48:54Z) - Asynchronous Decentralized SGD under Non-Convexity: A Block-Coordinate Descent Framework [5.001721812806788]
本稿では, ADSGD (Asynchronous Decentralized Gradient Descent) の精度向上モデルを提案する。
単純さ、メモリと通信の効率、通信と計算の遅延に対するレジリエンスにより、ADSGDは現実世界の分散学習タスクに適している。
論文 参考訳(メタデータ) (2025-05-15T14:06:38Z) - A Novel Pearson Correlation-Based Merging Algorithm for Robust Distributed Machine Learning with Heterogeneous Data [0.0]
本稿では,局所的な更新の質を改善し,グローバルモデルのロバスト性を高めるための新しい手法を提案する。
提案アルゴリズムは,グローバルモデルの精度を維持しながら,局所ノード数を削減する。
シミュレーション学習シナリオにおけるMNISTデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-19T16:59:07Z) - Generalized EXTRA stochastic gradient Langevin dynamics [11.382163777108385]
ランゲヴィンアルゴリズムは、ベイズ学習のためのマルコフ・チェイン・モンテカルロ法(Markov Chain Monte Carlo method)として人気がある。
Langevin dynamics (SGLD)のような彼らのバージョンは、ランダムにサンプリングされたミニバッチに基づいた反復学習を可能にする。
通信とプライバシーの制約を受けるエージェントのネットワークでデータが分散化されると、標準のSGLDアルゴリズムは適用できない。
論文 参考訳(メタデータ) (2024-12-02T21:57:30Z) - Decentralized Smoothing ADMM for Quantile Regression with Non-Convex Sparse Penalties [3.269165283595478]
急速に進化するIoT(Internet-of-Things)エコシステムでは、センサによって生成された分散データを扱う上で、効果的なデータ分析技術が不可欠である。
下位段階のコンセンサスアプローチのような既存の手法の限界に対処することは、アクティブ係数と非アクティブ係数の区別に失敗する。
論文 参考訳(メタデータ) (2024-08-02T15:00:04Z) - Scalable and reliable deep transfer learning for intelligent fault
detection via multi-scale neural processes embedded with knowledge [7.730457774728478]
本稿では,グラフ畳み込みネットワーク(GTNP)を用いたニューラルプロセスを用いたディープトランスファー学習法を提案する。
提案手法の検証は3つのIFDタスクにまたがって行われ、他のDTL法と比較してGTNPの検出性能が優れていた。
論文 参考訳(メタデータ) (2024-02-20T05:39:32Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Unsupervised Domain Adaptation in the Dissimilarity Space for Person
Re-identification [11.045405206338486]
そこで本稿では,ペア距離の整合性を実現するために,D-MMD(Dissimilarity-based Maximum Mean Discrepancy)の新たな損失を提案する。
3つの挑戦的なベンチマークデータセットによる実験結果から、D-MMDの損失は、ソースとドメインの分布がよりよくなるにつれて減少することが示された。
論文 参考訳(メタデータ) (2020-07-27T22:10:46Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Distributionally Robust Chance Constrained Programming with Generative
Adversarial Networks (GANs) [0.0]
GAN(Generative Adversarial Network)をベースとしたデータ駆動型分散ロバストな制約付きプログラミングフレームワークを提案する。
非パラメトリックかつ教師なしの方法で、歴史的データから分布情報を完全抽出するために、GANを適用する。
提案手法は需要不確実性の下でサプライチェーン最適化に適用される。
論文 参考訳(メタデータ) (2020-02-28T00:05:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。