論文の概要: Learn to Adapt to New Environment from Past Experience and Few Pilot
- arxiv url: http://arxiv.org/abs/2209.02649v1
- Date: Fri, 2 Sep 2022 12:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:42:29.645091
- Title: Learn to Adapt to New Environment from Past Experience and Few Pilot
- Title(参考訳): 過去の経験とパイロットの少なさから新しい環境に適応することを学ぶ
- Authors: Ouya Wang, Jiabao Gao, and Geoffrey Ye Li
- Abstract要約: 我々は,コミュニケーションモデルが新しい環境に一般化できるようにするために,数発の学習を導入する。
深層学習に基づくコミュニケーションモデルに注目ネットワークを組み込むことで、異なる遅延プロファイルを持つ環境を同時に学習することができる。
学習経験を活用することで、通信モデルは、新しい環境でうまく機能するためには、パイロットブロックをほとんど必要としない。
- 参考スコア(独自算出の注目度): 29.543762094802833
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, deep learning has been widely applied in communications and
achieved remarkable performance improvement. Most of the existing works are
based on data-driven deep learning, which requires a significant amount of
training data for the communication model to adapt to new environments and
results in huge computing resources for collecting data and retraining the
model. In this paper, we will significantly reduce the required amount of
training data for new environments by leveraging the learning experience from
the known environments. Therefore, we introduce few-shot learning to enable the
communication model to generalize to new environments, which is realized by an
attention-based method. With the attention network embedded into the deep
learning-based communication model, environments with different power delay
profiles can be learnt together in the training process, which is called the
learning experience. By exploiting the learning experience, the communication
model only requires few pilot blocks to perform well in the new environment.
Through an example of deep-learning-based channel estimation, we demonstrate
that this novel design method achieves better performance than the existing
data-driven approach designed for few-shot learning.
- Abstract(参考訳): 近年、深層学習はコミュニケーションに広く応用され、優れた性能向上を遂げている。
既存の作業の大部分はデータ駆動ディープラーニングに基づいており、通信モデルが新しい環境に適応するためには、かなりの量のトレーニングデータが必要であり、データ収集とモデルの再トレーニングのための膨大な計算リソースが得られます。
本稿では,学習経験を既知の環境から活用することで,新しい環境に必要なトレーニングデータの量を大幅に削減する。
そこで本研究では,注意に基づく手法によって実現される新しい環境へのコミュニケーションモデルを一般化するために,少人数学習を導入する。
ディープラーニングベースのコミュニケーションモデルに注目ネットワークを組み込むことで、学習体験と呼ばれるトレーニングプロセスにおいて、異なる遅延プロファイルを持つ環境を同時に学習することができる。
学習体験を活用することで、コミュニケーションモデルは、新しい環境でうまく機能するパイロットブロックをわずかしか必要としない。
深層学習に基づくチャネル推定の例を通じて,この新しい設計手法が,マイナショット学習用に設計された既存のデータ駆動アプローチよりも優れた性能を実現することを実証する。
関連論文リスト
- Unlearnable Algorithms for In-context Learning [36.895152458323764]
本稿では,事前訓練された大規模言語モデルのタスク適応フェーズに対する効率的なアンラーニング手法に着目した。
タスク適応のための文脈内学習を行うLLMの能力は、タスク適応トレーニングデータの効率的なアンラーニングを可能にする。
本稿では,様々な推論コストを考慮に入れた非学習コストの包括的尺度を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:43:04Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Friendly Training: Neural Networks Can Adapt Data To Make Learning
Easier [23.886422706697882]
フレンドリートレーニング(Friendly Training)と呼ばれる新しいトレーニング手順を提案する。
フレンドリートレーニングは、情報サブ選択とランダム選択に関して改善をもたらすことを示す。
その結果,入力データへの適応は学習を安定させ,ネットワークのスキル一般化を改善するための有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-06-21T10:50:34Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - A Survey on Recent Approaches for Natural Language Processing in
Low-Resource Scenarios [30.391291221959545]
ディープニューラルネットワークと巨大な言語モデルが、自然言語アプリケーションにおいて一様化しつつある。
大量のトレーニングデータを必要とすることで知られているため、低リソース環境でのパフォーマンスを改善するための作業が増えている。
ニューラルモデルに対する最近の根本的な変化と、一般的なプレトレインおよびファインチューンパラダイムにより、低リソースの自然言語処理に対する有望なアプローチを調査した。
論文 参考訳(メタデータ) (2020-10-23T11:22:01Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。