論文の概要: Monotonic Neural Network: combining Deep Learning with Domain Knowledge
for Chiller Plants Energy Optimization
- arxiv url: http://arxiv.org/abs/2106.06143v1
- Date: Fri, 11 Jun 2021 03:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:04:53.203923
- Title: Monotonic Neural Network: combining Deep Learning with Domain Knowledge
for Chiller Plants Energy Optimization
- Title(参考訳): 単調ニューラルネットワーク:Chiller Plants Energy Optimizationのためのディープラーニングとドメイン知識を組み合わせる
- Authors: Fanhe Ma, Faen Zhang, Shenglan Ben, Shuxin Qin, Pengcheng Zhou,
Changsheng Zhou and Fengyi Xu
- Abstract要約: 現実世界の物理システムにおける深層ネットワークトレーニングのための膨大なデータ収集は困難である。
本稿では,非線形モデルを構築するための深層ネットワークの構造と損失設計におけるドメイン知識について考察する。
特に、ほとんどの冷却器のエネルギー消費推定は、入力出力単調問題として物理的に見なすことができる。
- 参考スコア(独自算出の注目度): 1.4508333270892002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we are interested in building a domain knowledge based deep
learning framework to solve the chiller plants energy optimization problems.
Compared to the hotspot applications of deep learning (e.g. image
classification and NLP), it is difficult to collect enormous data for deep
network training in real-world physical systems. Most existing methods reduce
the complex systems into linear model to facilitate the training on small
samples. To tackle the small sample size problem, this paper considers domain
knowledge in the structure and loss design of deep network to build a nonlinear
model with lower redundancy function space. Specifically, the energy
consumption estimation of most chillers can be physically viewed as an
input-output monotonic problem. Thus, we can design a Neural Network with
monotonic constraints to mimic the physical behavior of the system. We verify
the proposed method in a cooling system of a data center, experimental results
show the superiority of our framework in energy optimization compared to the
existing ones.
- Abstract(参考訳): 本稿では,低温植物のエネルギー最適化問題を解決するための,ドメイン知識に基づく深層学習フレームワークの構築に注目する。
ディープラーニングのホットスポットアプリケーション(例)と比較すると
実世界の物理システムにおける深層ネットワークトレーニングのための膨大なデータを収集することは困難である。
既存の手法の多くは、複雑なシステムを線形モデルに還元し、小さなサンプルの訓練を容易にする。
そこで,本研究では,低冗長関数空間を持つ非線形モデルを構築するために,深層ネットワークの構造と損失設計におけるドメイン知識を検討する。
特に、ほとんどの冷却器のエネルギー消費推定は、入力出力単調問題として物理的に見なすことができる。
したがって、システムの物理的挙動を模倣するために、単調な制約を持つニューラルネットワークを設計できる。
提案手法をデータセンターの冷却システムで検証し, 実験結果から, 既存の冷却システムと比較して, エネルギー最適化におけるフレームワークの優位性を示した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Neural Incremental Data Assimilation [8.817223931520381]
ニューラルネットワークによってパラメータ化された粗いガウス分布の列として物理系をモデル化する深層学習手法を提案する。
これにより、再構築エラーを最小限に抑えるためにエンドツーエンドで訓練された同化演算子を定義することができる。
本稿では,疎度観測によるカオス力学系へのアプローチについて述べるとともに,従来の変分データ同化法と比較する。
論文 参考訳(メタデータ) (2024-06-21T11:42:55Z) - The Simpler The Better: An Entropy-Based Importance Metric To Reduce Neural Networks' Depth [5.869633234882029]
本稿では,大規模モデルによって伝達される事前知識を活用する効率戦略を提案する。
本稿では,過度にパラメータ化された深層ニューラルネットワークの深さを低減するために,エントロピー・バサード・インシデンス・mEtRic (EASIER) を利用する手法を提案する。
論文 参考訳(メタデータ) (2024-04-27T08:28:25Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Energy Consumption of Neural Networks on NVIDIA Edge Boards: an
Empirical Model [6.809944967863927]
近年、レイテンシの低減とデータプライバシの保護のために、ディープラーニング推論タスクの実行を、ユーザに近いネットワークのエッジにシフトする傾向があります。
本研究では,現代のエッジノードにおける推論タスクのエネルギ消費をプロファイリングすることを目的とする。
そこで我々は, 検討ボード上である推論タスクのエネルギー消費を推定できる, 単純で実用的なモデルを構築した。
論文 参考訳(メタデータ) (2022-10-04T14:12:59Z) - On-Device Domain Generalization [93.79736882489982]
ドメインの一般化はデバイス上の機械学習アプリケーションにとって重要である。
知識蒸留がこの問題の解決の有力な候補であることがわかった。
本研究では,教師が配布外データをどのように扱えるかを学生に教えることを目的とした,配布外知識蒸留(OKD)という簡単なアイデアを提案する。
論文 参考訳(メタデータ) (2022-09-15T17:59:31Z) - On Energy-Based Models with Overparametrized Shallow Neural Networks [44.74000986284978]
エネルギーベースモデル(EBM)は、ジェネレーションモデリングの強力なフレームワークです。
この研究では、浅いニューラルネットワークに焦点を当てます。
我々は、いわゆる「アクティブ」体制で訓練されたモデルが、関連する「怠慢」またはカーネル体制に対して統計的に有利であることを示す。
論文 参考訳(メタデータ) (2021-04-15T15:34:58Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Compact Neural Representation Using Attentive Network Pruning [1.0152838128195465]
本稿では,Bottom-Upフィードフォワードネットワークに付加されたTop-Downアテンション機構について述べる。
提案手法は, 新たな階層選択機構をプルーニングの基礎として導入するだけでなく, 実験評価において, 従来のベースライン手法と競合するままである。
論文 参考訳(メタデータ) (2020-05-10T03:20:01Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。