論文の概要: On-device Federated Learning in Smartphones for Detecting Depression from Reddit Posts
- arxiv url: http://arxiv.org/abs/2410.13709v1
- Date: Thu, 17 Oct 2024 16:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:18:53.637911
- Title: On-device Federated Learning in Smartphones for Detecting Depression from Reddit Posts
- Title(参考訳): Reddit投稿の落ち込みを検出するスマートフォンのデバイス上でのフェデレーション学習
- Authors: Mustofa Ahmed, Abdul Muntakim, Nawrin Tabassum, Mohammad Asifur Rahim, Faisal Muhammad Shah,
- Abstract要約: ソーシャルメディアの投稿は個人の精神状態に関する貴重な情報を提供している。
本研究では,スマートフォン上での分散学習を容易にするために,フェデレートラーニング(FL)を採用した。
トレーニングプロセスを最適化するために、すべてのクライアントデバイスで共通のトークン化ツールを活用します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Depression detection using deep learning models has been widely explored in previous studies, especially due to the large amounts of data available from social media posts. These posts provide valuable information about individuals' mental health conditions and can be leveraged to train models and identify patterns in the data. However, distributed learning approaches have not been extensively explored in this domain. In this study, we adopt Federated Learning (FL) to facilitate decentralized training on smartphones while protecting user data privacy. We train three neural network architectures--GRU, RNN, and LSTM on Reddit posts to detect signs of depression and evaluate their performance under heterogeneous FL settings. To optimize the training process, we leverage a common tokenizer across all client devices, which reduces the computational load. Additionally, we analyze resource consumption and communication costs on smartphones to assess their impact in a real-world FL environment. Our experimental results demonstrate that the federated models achieve comparable performance to the centralized models. This study highlights the potential of FL for decentralized mental health prediction by providing a secure and efficient model training process on edge devices.
- Abstract(参考訳): ディープラーニングモデルを用いた抑うつ検出は、特にソーシャルメディア投稿から得られる大量のデータのために、これまで広く研究されてきた。
これらの投稿は個人の精神状態に関する貴重な情報を提供し、モデルのトレーニングやデータのパターンの特定に活用することができる。
しかし、この領域では分散学習のアプローチは広く研究されていない。
本研究では,ユーザデータのプライバシーを保護しながら,スマートフォン上での分散トレーニングを容易にするために,フェデレートラーニング(FL)を採用した。
我々は、Reddit投稿にGRU、RNN、LSTMという3つのニューラルネットワークアーキテクチャをトレーニングし、うつの兆候を検出し、不均一なFL設定下での性能を評価する。
トレーニングプロセスの最適化のために,すべてのクライアントデバイスに共通トークン化機構を組み込むことで,計算負荷を低減できる。
さらに,スマートフォン上での資源消費と通信コストを分析し,実世界のFL環境におけるその影響を評価する。
実験結果から,フェデレーションモデルが集中型モデルに匹敵する性能を示した。
本研究は、エッジデバイス上でセキュアで効率的なモデルトレーニングプロセスを提供することにより、メンタルヘルス予測の分散化に向けたFLの可能性を強調した。
関連論文リスト
- Incremental Semi-supervised Federated Learning for Health Inference via
Mobile Sensing [5.434366992553875]
我々は,段階的な半教師付きフェデレート学習アルゴリズムであるFedMobileを提案する。
インフルエンザ様症状認識のための実世界のモバイルセンシングデータセットを用いてFedMobileを評価した。
論文 参考訳(メタデータ) (2023-12-19T23:39:33Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones [0.5039813366558306]
フェデレートラーニング(FL)は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
本稿では,FedDistと呼ばれる新しいFLアルゴリズムを提案する。
その結果、FedDistが異種データに適応できることと、FLが非同期な状況に対処できることが示されている。
論文 参考訳(メタデータ) (2022-10-30T18:47:23Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - On the Importance and Applicability of Pre-Training for Federated
Learning [28.238484580662785]
我々は,連合学習のための事前学習を体系的に研究する。
事前学習はFLを改善するだけでなく,その精度のギャップを集中学習に埋めることもできる。
本論文は,FLに対する事前学習の効果を解明する試みとしてまとめる。
論文 参考訳(メタデータ) (2022-06-23T06:02:33Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - DQRE-SCnet: A novel hybrid approach for selecting users in Federated
Learning with Deep-Q-Reinforcement Learning based on Spectral Clustering [1.174402845822043]
実世界の機密データに基づく機械学習モデルは、医療スクリーニングから病気の発生、農業、産業、防衛科学など幅広い分野で進歩している。
多くのアプリケーションにおいて、学習参加者のコミュニケーションラウンドは、独自のプライベートデータセットを収集し、実際のデータに対して詳細な機械学習モデルを教え、これらのモデルを使用することの利点を共有することの恩恵を受ける。
既存のプライバシとセキュリティ上の懸念から、ほとんどの人はトレーニング用の機密データ共有を回避している。各ユーザがローカルデータを中央サーバにデモしない限り、フェデレートラーニングは、さまざまなパーティが共用データ上で機械学習アルゴリズムをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2021-11-07T15:14:29Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。