論文の概要: Multi-task Domain Adaptation for Computation Offloading in Edge-intelligence Networks
- arxiv url: http://arxiv.org/abs/2501.07585v1
- Date: Thu, 02 Jan 2025 13:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-19 08:09:29.857159
- Title: Multi-task Domain Adaptation for Computation Offloading in Edge-intelligence Networks
- Title(参考訳): エッジインテリジェンスネットワークにおける演算オフロードのためのマルチタスク領域適応
- Authors: Runxin Han, Bo Yang, Zhiwen Yu, Xuelin Cao, George C. Alexandropoulos, Chau Yuen,
- Abstract要約: 本稿では,MTDA(Multi-Task Domain Adaptation)と呼ばれる新しいアプローチを提案する。
提案したMTDAモデルには,推論時にソースドメインデータへのアクセスを必要とせずに継続的適応が可能な教師学生アーキテクチャが組み込まれている。
提案するMTDAモデルは様々なシナリオで高い性能を維持しており,新興MECアプリケーションへの実用的な展開の可能性を示している。
- 参考スコア(独自算出の注目度): 34.934911340540545
- License:
- Abstract: In the field of multi-access edge computing (MEC), efficient computation offloading is crucial for improving resource utilization and reducing latency in dynamically changing environments. This paper introduces a new approach, termed as Multi-Task Domain Adaptation (MTDA), aiming to enhance the ability of computational offloading models to generalize in the presence of domain shifts, i.e., when new data in the target environment significantly differs from the data in the source domain. The proposed MTDA model incorporates a teacher-student architecture that allows continuous adaptation without necessitating access to the source domain data during inference, thereby maintaining privacy and reducing computational overhead. Utilizing a multi-task learning framework that simultaneously manages offloading decisions and resource allocation, the proposed MTDA approach outperforms benchmark methods regarding mean squared error and accuracy, particularly in environments with increasing numbers of users. It is observed by means of computer simulation that the proposed MTDA model maintains high performance across various scenarios, demonstrating its potential for practical deployment in emerging MEC applications.
- Abstract(参考訳): マルチアクセスエッジコンピューティング(MEC)の分野では、資源利用の改善と動的に変化する環境における遅延低減のために、効率的な計算オフロードが不可欠である。
本稿では,マルチタスク・ドメイン適応(MTDA)と呼ばれる新しい手法を導入し,ドメインシフトが存在する場合の計算オフロードモデルの拡張,すなわち,ターゲット環境における新しいデータがソース領域のデータと大きく異なる場合の一般化を目的とした。
提案するMTDAモデルでは,推論時にソースドメインデータへのアクセスを必要とせずに継続的適応が可能な教師学生アーキテクチャを取り入れ,プライバシの維持と計算オーバーヘッドの低減を実現している。
オフロード決定とリソース割り当てを同時に管理するマルチタスク学習フレームワークを利用することで、MTDAアプローチは平均2乗誤差と精度に関するベンチマーク手法、特にユーザ数が増加する環境において、パフォーマンスを向上する。
MTDAモデルは様々なシナリオにまたがって高い性能を保ち、新興MECアプリケーションにおける実用的展開の可能性を示す。
関連論文リスト
- Efficient Domain Adaptation of Multimodal Embeddings using Constrastive Learning [0.08192907805418582]
現在のアプローチでは、タスク固有の適応なしに事前訓練されたモデルを使用する際にサブパー結果を得るか、あるいは微調整のためにかなりの計算資源を必要とする。
本稿では,高コストな微調整処理を必要とせず,基礎的なマルチモーダルな埋め込みを下流タスクに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-04T06:30:12Z) - Online Parallel Multi-Task Relationship Learning via Alternating Direction Method of Multipliers [37.859185005986056]
オンラインマルチタスク学習(OMTL)は、複数のタスク間の固有の関係を活用することで、ストリーミングデータ処理を強化する。
本研究では、分散コンピューティング環境に適した最近の最適化である交互方向乗算器法(ADMM)に基づく新しいOMTLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-09T10:20:13Z) - Subject-Based Domain Adaptation for Facial Expression Recognition [51.10374151948157]
ディープラーニングモデルを特定の対象個人に適用することは、難しい表情認識タスクである。
本稿では、FERにおける主観的ドメイン適応のための新しいMSDA手法を提案する。
複数の情報源からの情報を効率的に利用して、ディープFERモデルを単一のターゲット個人に適応させる。
論文 参考訳(メタデータ) (2023-12-09T18:40:37Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Multi-Prompt Alignment for Multi-Source Unsupervised Domain Adaptation [86.02485817444216]
マルチプロンプトアライメント(MPA: Multi-Prompt Alignment)は,マルチソースUDAのためのシンプルかつ効率的なフレームワークである。
MPAは、学習したプロンプトを自動エンコードプロセスで認知し、再構築されたプロンプトの合意を最大化することでそれらを調整する。
実験によると、MPAは3つの一般的なデータセットで最先端の結果を達成し、DomainNetの平均精度は54.1%である。
論文 参考訳(メタデータ) (2022-09-30T03:40:10Z) - Computation Offloading in Multi-Access Edge Computing Networks: A
Multi-Task Learning Approach [7.203439085947118]
マルチアクセスエッジコンピューティング(MEC)は、いくつかのタスクをMECサーバ(MES)に統合された近接アクセスポイント(AP)にオフロードすることで、モバイル機器が計算集約的なアプリケーションに対応できるようにする可能性をすでに示している。
しかし,MESのネットワーク条件や計算資源が限られているため,モバイル端末によるオフロード決定やMESが割り当てる計算資源は,低コストで効率よく達成できない。
我々はMECネットワークのための動的オフロードフレームワークを提案し、アップリンク非直交多重アクセス(NOMA)を用いて複数のデバイスがアップロードできるようにする。
論文 参考訳(メタデータ) (2020-06-29T15:11:10Z) - Online Meta-Learning for Multi-Source and Semi-Supervised Domain
Adaptation [4.1799778475823315]
本稿では,既存のDAアルゴリズムの初期条件をメタラーニングすることで,性能向上のためのフレームワークを提案する。
マルチソース非教師付きドメイン適応(MSDA)と半教師付きドメイン適応(SSDA)の両方の変種を提示する。
最大規模のDomainNetを含む,いくつかのDAベンチマークで得られた成果を報告する。
論文 参考訳(メタデータ) (2020-04-09T07:48:22Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。