論文の概要: Transfer Learning as an Essential Tool for Digital Twins in Renewable
Energy Systems
- arxiv url: http://arxiv.org/abs/2203.05026v1
- Date: Wed, 9 Mar 2022 19:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-12 04:05:54.621936
- Title: Transfer Learning as an Essential Tool for Digital Twins in Renewable
Energy Systems
- Title(参考訳): 再生可能エネルギーシステムにおけるデジタル双生児の移動学習
- Authors: Chandana Priya Nivarthi
- Abstract要約: デジタル双生児や他のインテリジェントシステムは、以前得られた知識を利用し、より自立的な方法で新しいタスクを解決するためにTLを利用する必要がある。
本稿では,再生可能エネルギーシステムにおける電力予測と異常検出における重要な課題について述べる。
これらの課題に対処する潜在的なTLフレームワークが提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning (TL), the next frontier in machine learning (ML), has
gained much popularity in recent years, due to the various challenges faced in
ML, like the requirement of vast amounts of training data, expensive and
time-consuming labelling processes for data samples, and long training duration
for models. TL is useful in tackling these problems, as it focuses on
transferring knowledge from previously solved tasks to new tasks. Digital twins
and other intelligent systems need to utilise TL to use the previously gained
knowledge and solve new tasks in a more self-reliant way, and to incrementally
increase their knowledge base. Therefore, in this article, the critical
challenges in power forecasting and anomaly detection in the context of
renewable energy systems are identified, and a potential TL framework to meet
these challenges is proposed. This article also proposes a feature embedding
approach to handle the missing sensors data. The proposed TL methods help to
make a system more autonomous in the context of organic computing.
- Abstract(参考訳): 機械学習(ML)の次のフロンティアであるTransfer Learning(TL)は、膨大なトレーニングデータの必要性、データサンプルの高価で時間のかかるラベル付けプロセス、モデルの長期トレーニングなど、MLで直面するさまざまな課題により、近年、大きな人気を集めている。
TLは、以前解決されたタスクから新しいタスクへの知識の転送に焦点を当てており、これらの問題を解決するのに有用である。
デジタル双生児や他のインテリジェントなシステムは、以前得られた知識を利用し、より自律的な方法で新しいタスクを解決し、知識ベースを漸進的に増やすためにTLを利用する必要がある。
そこで本稿では,再生可能エネルギーシステムにおける電力予測と異常検出における重要な課題を特定し,これらの課題を満たすためのtlフレームワークを提案する。
この記事では、欠落したセンサデータを扱うために、機能埋め込みアプローチを提案する。
提案したTL法は、有機コンピューティングの文脈でシステムをより自律的にするのに役立つ。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Function-space Parameterization of Neural Networks for Sequential Learning [22.095632118886225]
逐次学習パラダイムは、新しいデータの導入と事前知識の維持が困難であるため、勾配に基づくディープラーニングに課題を提起する。
本稿では,ニューラルネットワークを重み空間から関数空間に変換する手法を提案する。
実験により,継続学習における知識を保ち,新しいデータを効率的に活用できることが実証された。
論文 参考訳(メタデータ) (2024-03-16T14:00:04Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - Transfer Learning for Future Wireless Networks: A Comprehensive Survey [49.746711269488515]
本稿では,無線ネットワークにおける転送学習の応用に関する包括的調査を行う。
まず,形式的定義,分類,様々な種類のtl技術を含むtlの概要について述べる。
次に,無線ネットワークにおける新たな課題に対処するために,多様なTLアプローチを提案する。
論文 参考訳(メタデータ) (2021-02-15T14:19:55Z) - Smart Grid: A Survey of Architectural Elements, Machine Learning and
Deep Learning Applications and Future Directions [0.0]
ビッグデータ分析、機械学習(ML)、ディープラーニング(DL)は、この膨大なデータの分析と貴重な洞察の生成において重要な役割を果たす。
本稿では、スマートグリッドのコンテキストにおいて、スマートグリッドアーキテクチャ要素、機械学習、ディープラーニングベースのアプリケーションおよびアプローチを調査し、調査する。
論文 参考訳(メタデータ) (2020-10-16T01:40:24Z) - Federated Edge Learning : Design Issues and Challenges [1.916348196696894]
Federated Learning(FL)は分散機械学習技術であり、各デバイスはそのローカルトレーニングデータに基づいて勾配を独立に計算することで学習モデルに寄与する。
FLをネットワークエッジに実装することは、システムとデータの不均一性とリソースの制約のために難しい。
本稿では、今後の研究方向性の指針として、データ認識スケジューリングのための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-31T19:56:36Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。