論文の概要: PBRE: A Rule Extraction Method from Trained Neural Networks Designed for
Smart Home Services
- arxiv url: http://arxiv.org/abs/2207.08814v1
- Date: Mon, 18 Jul 2022 05:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:13:08.961916
- Title: PBRE: A Rule Extraction Method from Trained Neural Networks Designed for
Smart Home Services
- Title(参考訳): PBRE:スマートホームサービス用に設計されたトレーニングニューラルネットワークからのルール抽出手法
- Authors: Mingming Qiu, Elie Najm, Remi Sharrock, Bruno Traverson
- Abstract要約: PBREは、スマートホームシステムのための動的ルール生成を実現するための学習方法からルールを抽出する。
NRL(Neural Network-based Reinforcement Learning)で表されるスマートホームサービスから規則を抽出するためにPBREを適用する。
- 参考スコア(独自算出の注目度): 2.599882743586164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing smart home services is a complex task when multiple services with a
large number of sensors and actuators are deployed simultaneously. It may rely
on knowledge-based or data-driven approaches. The former can use rule-based
methods to design services statically, and the latter can use learning methods
to discover inhabitants' preferences dynamically. However, neither of these
approaches is entirely satisfactory because rules cannot cover all possible
situations that may change, and learning methods may make decisions that are
sometimes incomprehensible to the inhabitant. In this paper, PBRE (Pedagogic
Based Rule Extractor) is proposed to extract rules from learning methods to
realize dynamic rule generation for smart home systems. The expected advantage
is that both the explainability of rule-based methods and the dynamicity of
learning methods are adopted. We compare PBRE with an existing rule extraction
method, and the results show better performance of PBRE. We also apply PBRE to
extract rules from a smart home service represented by an NRL (Neural
Network-based Reinforcement Learning). The results show that PBRE can help the
NRL-simulated service to make understandable suggestions to the inhabitant.
- Abstract(参考訳): 多数のセンサとアクチュエータを備えた複数のサービスが同時にデプロイされる場合、スマートホームサービスの設計は複雑なタスクである。
知識ベースやデータ駆動のアプローチに依存する場合もある。
前者は規則に基づく手法で静的にサービスを設計することができ、後者は学習法を用いて住民の好みを動的に発見することができる。
しかし、ルールは変化しうる全ての可能な状況をカバーすることができず、学習方法が時として居住者にとって理解できない決定を下す可能性があるため、これらのアプローチはいずれも完全に満足できない。
本稿では,スマートホームシステムにおける動的ルール生成を実現するための学習手法からルールを抽出する pbre (pedagogic based rule extractor) を提案する。
期待される利点は、ルールベースの手法の説明可能性と学習方法の動的性の両方を採用することである。
PBREを既存のルール抽出法と比較した結果,PBREの性能は向上した。
また、PBREを用いて、NRL(Neural Network-based Reinforcement Learning)で表されるスマートホームサービスからルールを抽出する。
その結果,PBRE は NRL を模擬したサービスの実現に有効であることが示唆された。
関連論文リスト
- Upside-Down Reinforcement Learning for More Interpretable Optimal Control [2.06242362470764]
ニューラルネットワーク(NN)以外の関数近似アルゴリズムも,アップサイドダウン強化学習フレームワークで利用できるかを検討する。
我々の実験は、いくつかの一般的な最適制御ベンチマークで実施され、ランダムフォレストや極端ランダム化ツリーのような木に基づく手法が、NNと同様に動作可能であることを示す。
論文 参考訳(メタデータ) (2024-11-18T10:44:20Z) - Multi-Type Preference Learning: Empowering Preference-Based Reinforcement Learning with Equal Preferences [12.775486996512434]
嗜好に基づく強化学習は、エージェント行動に関する人間教師の嗜好から直接学習する。
既存のPBRL法はしばしば明示的な選好から学習し、教師が平等な選好を選択する可能性を無視している。
そこで本稿では,PBRL手法であるMulti-Type Preference Learning (MTPL)を提案する。
論文 参考訳(メタデータ) (2024-09-11T13:43:49Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Efficient Dependency Analysis for Rule-Based Ontologies [0.2752817022620644]
既存の規則特性の静的解析のために依存関係が提案されている。
私たちは、ポジティブな依存と抑制という、2種類のルール依存に焦点を当てています。
効率的な計算のために最適化アルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-20T05:53:36Z) - IQ-Learn: Inverse soft-Q Learning for Imitation [95.06031307730245]
少数の専門家データからの模倣学習は、複雑な力学を持つ高次元環境では困難である。
行動クローニングは、実装の単純さと安定した収束性のために広く使われている単純な方法である。
本稿では,1つのQ-関数を学習することで,対向学習を回避する動的適応型ILを提案する。
論文 参考訳(メタデータ) (2021-06-23T03:43:10Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Building Rule Hierarchies for Efficient Logical Rule Learning from
Knowledge Graphs [20.251630903853016]
本稿では,ルール階層を用いて非プロミッシングルールを抽出する新しい手法を提案する。
HPMの応用は非プロムルールの除去に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-29T16:33:30Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - Guided Dialog Policy Learning without Adversarial Learning in the Loop [103.20723982440788]
対話政策とともに報酬関数を学習するために,多くの逆学習法が提案されている。
敵の訓練を2つの段階に分割することを提案する。
まず,識別器を補助対話生成器で訓練し,得られた報酬モデルを共通RL法に組み込んで対話ポリシー学習を指導する。
論文 参考訳(メタデータ) (2020-04-07T11:03:17Z) - Reward-Conditioned Policies [100.64167842905069]
模倣学習には、ほぼ最適の専門家データが必要である。
実演なしで指導的学習を通じて効果的な政策を学べるか?
政策探索の原則的手法として,このようなアプローチを導出する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。