論文の概要: MQFL-FHE: Multimodal Quantum Federated Learning Framework with Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2412.01858v3
- Date: Thu, 05 Dec 2024 21:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 12:36:21.961631
- Title: MQFL-FHE: Multimodal Quantum Federated Learning Framework with Fully Homomorphic Encryption
- Title(参考訳): MQFL-FHE: 完全同型暗号化によるマルチモーダル量子フェデレーション学習フレームワーク
- Authors: Siddhant Dutta, Nouhaila Innan, Sadok Ben Yahia, Muhammad Shafique, David Esteban Bernal Neira,
- Abstract要約: フェデレートラーニング(FL)における同型暗号化(FHE)は、データのプライバシに大きな進歩をもたらした。
本稿では,FHEによる性能低下に対応するために,量子コンピューティングを利用した新しいマルチモーダル量子フェデレート学習フレームワークを提案する。
また、この量子化手法により、FHEに関連する性能劣化を軽減し、さまざまなデータセットの分類精度を改善し、FLにおけるプライバシー向上における量子介入の可能性を検証する。
- 参考スコア(独自算出の注目度): 5.713063730561454
- License:
- Abstract: The integration of fully homomorphic encryption (FHE) in federated learning (FL) has led to significant advances in data privacy. However, during the aggregation phase, it often results in performance degradation of the aggregated model, hindering the development of robust representational generalization. In this work, we propose a novel multimodal quantum federated learning framework that utilizes quantum computing to counteract the performance drop resulting from FHE. For the first time in FL, our framework combines a multimodal quantum mixture of experts (MQMoE) model with FHE, incorporating multimodal datasets for enriched representation and task-specific learning. Our MQMoE framework enhances performance on multimodal datasets and combined genomics and brain MRI scans, especially for underrepresented categories. Our results also demonstrate that the quantum-enhanced approach mitigates the performance degradation associated with FHE and improves classification accuracy across diverse datasets, validating the potential of quantum interventions in enhancing privacy in FL.
- Abstract(参考訳): フェデレートラーニング(FL)における完全同型暗号化(FHE)の統合は、データのプライバシに大きな進歩をもたらした。
しかし、アグリゲーションフェーズでは、しばしば集約されたモデルの性能劣化が起こり、ロバストな表現一般化の発達を妨げる。
本研究では,FHEによる性能低下に対応するために,量子コンピューティングを利用した新しいマルチモーダル量子フェデレート学習フレームワークを提案する。
FLではじめて、我々のフレームワークは、豊富な表現とタスク固有の学習のためのマルチモーダルデータセットを組み込んだ、専門家(MQMoE)モデルのマルチモーダル量子混合物をFHEと組み合わせたものです。
我々のMQMoEフレームワークはマルチモーダルデータセットの性能を高め、特に表現不足のカテゴリにおいてゲノムと脳MRIを併用する。
また、この量子化手法により、FHEに関連する性能劣化を軽減し、さまざまなデータセットの分類精度を改善し、FLにおけるプライバシー向上における量子介入の可能性を検証する。
関連論文リスト
- FedMLLM: Federated Fine-tuning MLLM on Multimodal Heterogeneity Data [64.50893177169996]
フェデレートラーニング(FL)による微調整型マルチモーダル大言語モデル(MLLM)は、プライベートデータソースを含めることで、トレーニングデータの範囲を拡大することができる。
マルチモーダルなヘテロジニアスシナリオにおけるMLLMのファインチューニングにおける様々なダウンストリームタスクを評価するためのベンチマークを提案する。
我々は,2つのモダリティに依存しない戦略とともに,4つの代表的FL手法を統合する汎用FedMLLMフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-22T04:09:23Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Uni-MoE: Scaling Unified Multimodal LLMs with Mixture of Experts [54.529880848937104]
そこで我々は,MoEアーキテクチャをUni-MoEと呼ぶ一貫したMLLMを開発し,様々なモダリティを扱えるようにした。
具体的には、統一マルチモーダル表現のためのコネクタを持つモダリティ特化エンコーダを特徴とする。
マルチモーダルデータセットの包括的集合を用いた命令調整Uni-MoEの評価を行った。
論文 参考訳(メタデータ) (2024-05-18T12:16:01Z) - FedQNN: Federated Learning using Quantum Neural Networks [3.9554540293311864]
本研究では,分散ネットワークを用いた量子機械学習(QML)モデルをトレーニングするためのフレームワークとして,量子フェデレートラーニング(QFL)の革新的な領域について検討する。
提案するFederated Quantum Neural Network (FedQNN) フレームワークは,QMLの特徴と古典的フェデレーション学習の原理を融合した最先端のソリューションとして出現する。
論文 参考訳(メタデータ) (2024-03-16T08:58:03Z) - Cross-Modal Prototype based Multimodal Federated Learning under Severely
Missing Modality [31.727012729846333]
MFCPL (Multimodal Federated Cross Prototype Learning) は、MFLにおいて、高度に欠落したモダリティの下での新たなアプローチである。
MFCPLは、モダリティ共有レベルにおいて、クロスモーダル正規化とクロスモーダルコントラスト機構を備えたモダリティ固有レベルと共に多様なモダリティ知識を提供する。
提案手法では,モーダリティに特有な特徴の正規化を実現するために,クロスモーダルアライメントを導入し,全体的な性能を向上させる。
論文 参考訳(メタデータ) (2024-01-25T02:25:23Z) - Balanced Multi-modal Federated Learning via Cross-Modal Infiltration [19.513099949266156]
フェデレートラーニング(FL)は、プライバシを保存する分散コンピューティングの進歩を支えている。
本稿では,新しいクロスモーダル・インフィルティング・フェデレート・ラーニング(FedCMI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-31T05:50:15Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - Unimodal Training-Multimodal Prediction: Cross-modal Federated Learning
with Hierarchical Aggregation [16.308470947384134]
HA-Fedformerは新しいトランスフォーマーベースのモデルで、クライアントでのアンモダルデータセットのみを使用して、単一モダルトレーニングを可能にする。
我々は,マルコフ連鎖モンテカルロサンプリングを用いた局所エンコーダの不確実性を考慮したアグリゲーション法を開発した。
一般的な感情分析ベンチマークであるCMU-MOSIとCMU-MOSEIの実験は、HA-Fedformerが最先端のマルチモーダルモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2023-03-27T07:07:33Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Quantization Robust Federated Learning for Efficient Inference on
Heterogeneous Devices [18.1568276196989]
フェデレートラーニング(FL)は、デバイス上に留まる分散データから機械学習モデルを分散的に学習するパラダイムである。
我々は、量子化に頑健なニューラルネットワークをトレーニングするフェデレーション平均化アルゴリズムを複数導入する。
本結果は,量子化オンデバイス推論において,異なるビット幅に対してはるかに堅牢なFLモデルにおいて,量子化ロバスト性の統合が生じることを示す。
論文 参考訳(メタデータ) (2022-06-22T05:11:44Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。