論文の概要: SCU: An Efficient Machine Unlearning Scheme for Deep Learning Enabled Semantic Communications
- arxiv url: http://arxiv.org/abs/2502.19785v1
- Date: Thu, 27 Feb 2025 05:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:58:04.549202
- Title: SCU: An Efficient Machine Unlearning Scheme for Deep Learning Enabled Semantic Communications
- Title(参考訳): SCU: セマンティック通信が可能なディープラーニングのための効率的な機械学習スキーム
- Authors: Weiqi Wang, Zhiyi Tian, Chenhan Zhang, Shui Yu,
- Abstract要約: ほとんどのセマンティックトレーニングデータセットは個人的なプライベート情報を含んでいる。
既存の機械学習ソリューションは、訓練されたモデルからデータコントリビューションを取り除く。
本稿では,この問題に対処するための意味的コミュニケーション・アンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 14.235752586133158
- License:
- Abstract: Deep learning (DL) enabled semantic communications leverage DL to train encoders and decoders (codecs) to extract and recover semantic information. However, most semantic training datasets contain personal private information. Such concerns call for enormous requirements for specified data erasure from semantic codecs when previous users hope to move their data from the semantic system. {Existing machine unlearning solutions remove data contribution from trained models, yet usually in supervised sole model scenarios. These methods are infeasible in semantic communications that often need to jointly train unsupervised encoders and decoders.} In this paper, we investigate the unlearning problem in DL-enabled semantic communications and propose a semantic communication unlearning (SCU) scheme to tackle the problem. {SCU includes two key components. Firstly,} we customize the joint unlearning method for semantic codecs, including the encoder and decoder, by minimizing mutual information between the learned semantic representation and the erased samples. {Secondly,} to compensate for semantic model utility degradation caused by unlearning, we propose a contrastive compensation method, which considers the erased data as the negative samples and the remaining data as the positive samples to retrain the unlearned semantic models contrastively. Theoretical analysis and extensive experimental results on three representative datasets demonstrate the effectiveness and efficiency of our proposed methods.
- Abstract(参考訳): 深層学習(DL)により、意味コミュニケーションはDLを利用してエンコーダとデコーダ(コーデック)を訓練し、意味情報を抽出し回収する。
しかし、ほとんどのセマンティックトレーニングデータセットは個人的なプライベート情報を含んでいる。
このような懸念は、ユーザがセマンティックシステムからデータを移動したい場合、セマンティックコーデックから指定されたデータ消去の膨大な要求を要求する。
既存のマシンアンラーニングソリューションは、トレーニングされたモデルからデータコントリビューションを取り除きます。
これらの方法は意味コミュニケーションでは不可能であり、教師なしエンコーダとデコーダを共同で訓練する必要があることが多い。
本稿では,DL対応セマンティックコミュニケーションにおけるアンラーニング問題について検討し,この問題に対処するためのセマンティック・コミュニケーション・アンラーニング(SCU)方式を提案する。
SCUには2つのキーコンポーネントが含まれている。
まず、学習した意味表現と消去されたサンプルとの相互情報の最小化により、エンコーダとデコーダを含む意味コーデックのための共同アンラーニング手法をカスタマイズする。
本研究では,非学習によるセマンティックモデルの実用性劣化を補うために,削除したデータを負のサンプルとみなし,残りのデータを正のサンプルとみなし,無学習のセマンティックモデルを再学習するコントラスト補償法を提案する。
3つの代表的なデータセットに関する理論的解析と広範な実験結果から,提案手法の有効性と有効性を示す。
関連論文リスト
- CodeUnlearn: Amortized Zero-Shot Machine Unlearning in Language Models Using Discrete Concept [5.345828824625758]
コードブック機能とスパースオートエンコーダ(SAEs)を用いた新しいアンラーニング手法を提案する。
ボトルネックを利用して、アクティベーション空間を分解し、情報の流れを規制することにより、モデルの性能を無関係なデータに保ちながら、ターゲットとなる情報を効率的に解き放つ。
論文 参考訳(メタデータ) (2024-10-08T10:26:22Z) - Semantic Meta-Split Learning: A TinyML Scheme for Few-Shot Wireless Image Classification [50.28867343337997]
本研究は,TinyMLを用いた無線画像分類のためのセマンティック・コミュニケーション・フレームワークを提案する。
我々は、プライバシ保護を確保しつつ、エンドユーザーによって実行される計算を制限するために分割学習を利用する。
メタ学習は、データ可用性の懸念を克服し、同様のトレーニングされたタスクを利用することで、トレーニングを高速化する。
論文 参考訳(メタデータ) (2024-09-03T05:56:55Z) - Agent-driven Generative Semantic Communication with Cross-Modality and Prediction [57.335922373309074]
本稿では,強化学習に基づくエージェント駆動型ジェネリックセマンティックコミュニケーションフレームワークを提案する。
本研究では, エージェント支援型セマンティックエンコーダを開発し, 適応的セマンティック抽出とサンプリングを行う。
設計モデルの有効性をUA-DETRACデータセットを用いて検証し、全体的なA-GSCフレームワークの性能向上を実証した。
論文 参考訳(メタデータ) (2024-04-10T13:24:27Z) - Knowledge Distillation Based Semantic Communications For Multiple Users [10.770552656390038]
本稿では,複数のユーザを対象としたセマンティックコミュニケーション(SemCom)システムについて考察する。
本稿では,トランスフォーマーベースのエンコーダデコーダをセマンティックエンコーダデコーダとして実装し,チャネルエンコーダデコーダとして完全に接続されたニューラルネットワークを実装した知識蒸留(KD)システムを提案する。
数値計算の結果,KDは予期せぬ干渉に適用した場合のロバスト性や一般化能力を大幅に向上し,モデルサイズを圧縮した場合の性能損失を低減できることがわかった。
論文 参考訳(メタデータ) (2023-11-23T03:28:14Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Semantics Alignment via Split Learning for Resilient Multi-User Semantic
Communication [56.54422521327698]
最近の意味コミュニケーションの研究は、ディープジョイントソースやチャネルコーディング(DeepJSCC)のようなニューラルネットワーク(NN)ベースのトランシーバに依存している。
従来のトランシーバとは異なり、これらのニューラルトランシーバは実際のソースデータとチャネルを使用してトレーニング可能であり、セマンティクスを抽出し通信することができる。
本稿では,分割学習(SL)と部分的NN微調整技術を活用する分散学習ベースソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-13T20:29:55Z) - Causal Semantic Communication for Digital Twins: A Generalizable
Imitation Learning Approach [74.25870052841226]
デジタルツイン(DT)は、物理世界の仮想表現と通信(例えば6G)、コンピュータ、人工知能(AI)技術を活用して、多くの接続されたインテリジェンスサービスを実現する。
無線システムは、厳密な通信制約下での情報意思決定を容易にするために意味コミュニケーション(SC)のパラダイムを利用することができる。
DTベースの無線システムでは,因果意味通信(CSC)と呼ばれる新しいフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-25T00:15:00Z) - Joint Task and Data Oriented Semantic Communications: A Deep Separate
Source-channel Coding Scheme [17.4244108919728]
データ伝達とセマンティックタスクの両方に役立てるために、共同データ圧縮とセマンティック分析がセマンティックコミュニケーションにおいて重要な問題となっている。
本稿では,共同作業とデータ指向のセマンティックコミュニケーションのためのディープ・ソースチャネル・コーディング・フレームワークを提案する。
深層学習モデルの過度な問題に対処するために,反復学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T08:34:37Z) - Deep Learning-Enabled Semantic Communication Systems with Task-Unaware
Transmitter and Dynamic Data [43.308832291174106]
本稿では,画像伝送のためのニューラルネットワークを用いたセマンティックコミュニケーションシステムを提案する。
提案手法は,データ回復とタスク実行の両面で高い性能を維持しつつ,観測可能なデータセットに適応することができる。
論文 参考訳(メタデータ) (2022-04-30T13:45:50Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。