論文の概要: Managing caching strategies for stream reasoning with reinforcement
learning
- arxiv url: http://arxiv.org/abs/2008.03212v1
- Date: Fri, 7 Aug 2020 15:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:19:17.150365
- Title: Managing caching strategies for stream reasoning with reinforcement
learning
- Title(参考訳): 強化学習によるストリーム推論のためのキャッシング戦略管理
- Authors: Carmine Dodaro, Thomas Eiter, Paul Ogris, Konstantin Schekotihin
- Abstract要約: ストリーム推論は、継続的なデータ変更よりも効率的な意思決定を可能にする。
我々は、衝突駆動制約学習(CDCL)を用いてレガシーソリューションを効率的に更新する新しいアプローチを提案する。
特に,強化学習の適用性について検討し,学習制約の有用性を継続的に評価する。
- 参考スコア(独自算出の注目度): 18.998260813058305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient decision-making over continuously changing data is essential for
many application domains such as cyber-physical systems, industry
digitalization, etc. Modern stream reasoning frameworks allow one to model and
solve various real-world problems using incremental and continuous evaluation
of programs as new data arrives in the stream. Applied techniques use, e.g.,
Datalog-like materialization or truth maintenance algorithms to avoid costly
re-computations, thus ensuring low latency and high throughput of a stream
reasoner. However, the expressiveness of existing approaches is quite limited
and, e.g., they cannot be used to encode problems with constraints, which often
appear in practice. In this paper, we suggest a novel approach that uses the
Conflict-Driven Constraint Learning (CDCL) to efficiently update legacy
solutions by using intelligent management of learned constraints. In
particular, we study the applicability of reinforcement learning to
continuously assess the utility of learned constraints computed in previous
invocations of the solving algorithm for the current one. Evaluations conducted
on real-world reconfiguration problems show that providing a CDCL algorithm
with relevant learned constraints from previous iterations results in
significant performance improvements of the algorithm in stream reasoning
scenarios.
Under consideration for acceptance in TPLP.
- Abstract(参考訳): 継続的なデータ変更に対する効率的な意思決定は、サイバーフィジカルシステムや業界ディジタル化など、多くのアプリケーションドメインにおいて不可欠です。
現代のストリーム推論フレームワークは、新しいデータがストリームに届くとプログラムのインクリメンタルかつ継続的な評価を使って、様々な現実世界の問題をモデル化し、解決することができる。
適用技術は、コストのかかる再計算を避けるために、例えばデータログライクな具体化や真理維持アルゴリズムを使用し、低レイテンシとストリーム推論のスループットを確保する。
しかし、既存のアプローチの表現力は非常に限られており、例えば、実際に現れる制約のある問題をエンコードすることができない。
本稿では,CDCL(Conflict-Driven Constraint Learning)を用いて,学習制約のインテリジェント管理を用いて,レガシソリューションを効率的に更新する手法を提案する。
特に,従来の問題解決アルゴリズムで計算された学習制約の有効性を連続的に評価するために,強化学習の適用性を検討した。
実世界の再構成問題に対する評価は、前回の繰り返しから学習した制約をCDCLアルゴリズムに提供することにより、ストリーム推論シナリオにおけるアルゴリズムの性能が大幅に向上することを示している。
TPLPの受容についての検討
関連論文リスト
- Causal Context Adjustment Loss for Learned Image Compression [72.7300229848778]
近年,学習画像圧縮(lic)技術は,特にRD性能の点で従来の手法を上回りつつある。
現在の技術のほとんどは、自己回帰エントロピーモデルを備えたVAEベースで、デコードされた因果コンテキストを利用してRD性能を向上する。
本稿では,提案した因果文脈調整損失を用いて因果文脈を的確に調整する方法を初めて検討する。
論文 参考訳(メタデータ) (2024-10-07T09:08:32Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Deep Neural Network for Constraint Acquisition through Tailored Loss
Function [0.0]
データから制約を学習することの重要性は、実世界の問題解決における潜在的な応用によって裏付けられている。
この研究は、シンボリック回帰に基づくディープニューラルネットワーク(DNN)に基づく新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-04T13:47:33Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Interpretable Anomaly Detection via Discrete Optimization [1.7150329136228712]
本稿では,シーケンシャルデータから本質的に解釈可能な異常検出を学習するためのフレームワークを提案する。
この問題は計算的に困難であることを示し,制約最適化に基づく2つの学習アルゴリズムを開発した。
プロトタイプ実装を用いて,提案手法は精度とF1スコアの点で有望な結果を示す。
論文 参考訳(メタデータ) (2023-03-24T16:19:15Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Instance-Dependent Confidence and Early Stopping for Reinforcement
Learning [99.57168572237421]
強化学習(RL)のための様々なアルゴリズムは、その収束率の劇的な変動を問題構造の関数として示している。
この研究は、観察されたパフォーマンスの違いについて、textitexを説明する保証を提供する。
次の自然なステップは、これらの理論的保証を実際に有用なガイドラインに変換することです。
論文 参考訳(メタデータ) (2022-01-21T04:25:35Z) - Learning Algorithms for Regenerative Stopping Problems with Applications
to Shipping Consolidation in Logistics [8.111251824291244]
制御器が停止し、長期平均コストを最小限に抑えると、システムが再起動する再生停止問題について検討する。
従来のモデルベースのソリューションは、推定モデルのためのデータとコンピューティング戦略から基礎となるプロセスを推定する。
シミュレーションからニューラルネットワークのポリシーを学習する深層強化学習と模擬学習とを比較します。
論文 参考訳(メタデータ) (2021-05-05T20:45:46Z) - Escaping from Zero Gradient: Revisiting Action-Constrained Reinforcement
Learning via Frank-Wolfe Policy Optimization [5.072893872296332]
アクション制約強化学習(RL)は、さまざまな現実世界のアプリケーションで広く使用されているアプローチです。
本稿では,政策パラメータ更新から行動制約を分離する学習アルゴリズムを提案する。
提案アルゴリズムは,様々な制御タスクにおけるベンチマーク手法を有意に上回っていることを示した。
論文 参考訳(メタデータ) (2021-02-22T14:28:03Z) - Deep RL With Information Constrained Policies: Generalization in
Continuous Control [21.46148507577606]
情報フローに対する自然な制約は, 連続制御タスクにおいて, 人工エージェントに干渉する可能性があることを示す。
CLAC(Capacity-Limited Actor-Critic)アルゴリズムを実装した。
実験の結果、CLACは代替手法と比較して、トレーニング環境と修正テスト環境の一般化に改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-10-09T15:42:21Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。