論文の概要: ML Mule: Mobile-Driven Context-Aware Collaborative Learning
- arxiv url: http://arxiv.org/abs/2501.07536v2
- Date: Fri, 28 Mar 2025 20:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:28:04.568059
- Title: ML Mule: Mobile-Driven Context-Aware Collaborative Learning
- Title(参考訳): ML Mule: モバイル駆動のコンテキスト対応コラボレーション学習
- Authors: Haoxiang Yu, Javier Berrocal, Christine Julien,
- Abstract要約: 我々は、より堅牢で分散し、パーソナライズされた新しい機械学習手法を提案する。
ML Muleは、個々のモバイルデバイスを'mules'として利用してモデルのスナップショットをトレーニングし、転送するアプローチである。
これらの結果から,ML Muleは既存の手法と比較して,より高速かつ高精度に収束することがわかった。
- 参考スコア(独自算出の注目度): 1.797172847888605
- License:
- Abstract: Artificial intelligence has been integrated into nearly every aspect of daily life, powering applications from object detection with computer vision to large language models for writing emails and compact models for use in smart homes. These machine learning models at times cater to the needs of individual users but are often detached from them, as they are typically stored and processed in centralized data centers. This centralized approach raises privacy concerns, incurs high infrastructure costs, and struggles to provide real time, personalized experiences. Federated and fully decentralized learning methods have been proposed to address these issues, but they still depend on centralized servers or face slow convergence due to communication constraints. We propose ML Mule, an approach that utilizes individual mobile devices as 'mules' to train and transport model snapshots as the mules move through physical spaces, sharing these models with the physical 'spaces' the mules inhabit. This method implicitly forms affinity groups among devices associated with users who share particular spaces, enabling collaborative model evolution and protecting users' privacy. Our approach addresses several major shortcomings of traditional, federated, and fully decentralized learning systems. ML Mule represents a new class of machine learning methods that are more robust, distributed, and personalized, bringing the field closer to realizing the original vision of intelligent, adaptive, and genuinely context-aware smart environments. Our results show that ML Mule converges faster and achieves higher model accuracy compared to other existing methods.
- Abstract(参考訳): 人工知能は日常生活のほぼすべての側面に統合され、物体検出やコンピュータービジョンから、Eメールを書くための大きな言語モデル、スマートホームで使用するコンパクトモデルまで、応用に力を入れている。
これらの機械学習モデルは、個々のユーザのニーズに適合するが、通常は中央集権的なデータセンターに格納され、処理されるため、しばしばそれらから切り離される。
この集中型アプローチは、プライバシの懸念を高め、高いインフラストラクチャコストを発生させ、リアルタイムでパーソナライズされたエクスペリエンスの提供に苦労する。
これらの問題に対処するために、フェデレートされた完全に分散された学習手法が提案されているが、それらは依然として集中型サーバに依存しているか、あるいは通信の制約によって緩やかな収束に直面している。
ML Muleは、個々のモバイルデバイスを「ミュール」として利用して、ミュールが物理的空間を移動するときにモデルスナップショットを訓練し、転送し、それらのモデルとミュールが居住する物理的「空間」を共有するアプローチである。
この方法は、特定の空間を共有するユーザに関連するデバイス間の親和性グループを暗黙的に形成し、協調モデルの発展とユーザのプライバシ保護を可能にする。
我々のアプローチは、従来の、フェデレートされた、完全に分散化された学習システムの主な欠点に対処する。
ML Muleは、より堅牢で分散し、パーソナライズされた機械学習メソッドの新たなクラスであり、インテリジェントで適応的で、真にコンテキスト対応のスマートな環境という本来のビジョンの実現に分野を近づけている。
その結果,ML Mule は既存の手法に比べて高速に収束し,モデル精度が向上していることがわかった。
関連論文リスト
- Federating Dynamic Models using Early-Exit Architectures for Automatic Speech Recognition on Heterogeneous Clients [12.008071873475169]
フェデレートラーニング(Federated Learning)とは、異なるクライアント上でデータをローカルに保ちながら、共有予測モデルを共同で学習するテクニックである。
本稿では, 早期解を用いた動的アーキテクチャを用いて, 入力や動作条件に応じて, その処理を適応させることができることを提案する。
このソリューションは、部分的なトレーニングメソッドの領域に該当し、2つのメリットをもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:32:37Z) - Federated Learning for Misbehaviour Detection with Variational Autoencoders and Gaussian Mixture Models [0.2999888908665658]
Federated Learning (FL)は、機械学習(ML)モデルを協調的にトレーニングするための魅力的なアプローチになっている。
本研究は、車載環境における潜在的な不適切な行動を特定するための、新しい教師なしFLアプローチを提案する。
当社は、モデルアグリゲーションの目的のために、パブリッククラウドサービスのコンピューティング能力を活用しています。
論文 参考訳(メタデータ) (2024-05-16T08:49:50Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Federated Two-stage Learning with Sign-based Voting [45.2715985913761]
フェデレートラーニング(Federated Learning)は、ローカルデバイスが共同で共有グローバルモデルをトレーニングする分散機械学習メカニズムである。
最近の大規模でより深い機械学習モデルもまた、連合した環境にそれらをデプロイする上でさらに困難を伴っている。
本稿では,デバイス上のカット層を用いて,原型的フェデレーション学習を増強する2段階学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-12-10T17:31:23Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z) - Federated and continual learning for classification tasks in a society
of devices [59.45414406974091]
Light Federated and Continual Consensus (LFedCon2)は、軽量で伝統的な学習者を用いた新しいフェデレーションおよび継続アーキテクチャである。
我々の方法では、スマートフォンやロボットのような無力デバイスが、リアルタイムで、ローカルで、継続的に、自律的に、そしてユーザーから学習することができる。
提案手法をスマートフォン利用者の異種コミュニティに適用し,歩行認識の課題を解決した。
論文 参考訳(メタデータ) (2020-06-12T12:37:03Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。