論文の概要: Causal versus Marginal Shapley Values for Robotic Lever Manipulation
Controlled using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2111.02936v1
- Date: Thu, 4 Nov 2021 15:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:43:40.398679
- Title: Causal versus Marginal Shapley Values for Robotic Lever Manipulation
Controlled using Deep Reinforcement Learning
- Title(参考訳): 深層強化学習を用いたロボットレバー操作における因果関係と限界値
- Authors: Sindre Benjamin Remman, Inga Str\"umke and Anastasios M. Lekkas
- Abstract要約: 本研究は,ロボットが説明文を生成する際の因果関係について,ドメイン知識を含めることの効果について考察する。
間接的な効果を考慮し、いくつかのドメイン知識を組み込むことで、人間の直感によく一致する説明ができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the effect of including domain knowledge about a robotic
system's causal relations when generating explanations. To this end, we compare
two methods from explainable artificial intelligence, the popular KernelSHAP
and the recent causal SHAP, on a deep neural network trained using deep
reinforcement learning on the task of controlling a lever using a robotic
manipulator. A primary disadvantage of KernelSHAP is that its explanations
represent only the features' direct effects on a model's output, not
considering the indirect effects a feature can have on the output by affecting
other features. Causal SHAP uses a partial causal ordering to alter
KernelSHAP's sampling procedure to incorporate these indirect effects. This
partial causal ordering defines the causal relations between the features, and
we specify this using domain knowledge about the lever control task. We show
that enabling an explanation method to account for indirect effects and
incorporating some domain knowledge can lead to explanations that better agree
with human intuition. This is especially favorable for a real-world robotics
task, where there is considerable causality at play, and in addition, the
required domain knowledge is often handily available.
- Abstract(参考訳): 本研究では,ロボットシステムの説明生成における因果関係に関するドメイン知識を含む効果について検討する。
この目的のために,ロボットマニピュレータを用いたレバー制御作業において,深部強化学習を用いて訓練した深部ニューラルネットワークにおいて,一般的なKernelSHAPと最近の因果SHAPの2つの手法を比較した。
kernelshapの最大の欠点は、その説明がモデルの出力に対する特徴の直接的な効果のみを表しており、他の特徴に影響を与えることによって、機能が出力に与える間接的な影響を考慮していないことである。
Causal SHAP は KernelSHAP のサンプリング手順を変更するために部分的な因果順序付けを使用している。
この部分因果順序付けは特徴間の因果関係を定義し,レバー制御タスクに関するドメイン知識を用いてこれを指定する。
間接的な効果を考慮し、いくつかのドメイン知識を取り入れることで、人間の直感によく一致する説明ができることを示す。
これは、かなりの因果関係がある現実世界のロボット工学のタスクに特に好都合であり、さらに、必要なドメイン知識がしばしば手軽に利用可能である。
関連論文リスト
- Learning Low-Level Causal Relations using a Simulated Robotic Arm [1.474723404975345]
因果学習により、人間の行動が既知の環境に与える影響を予測することができる。
シミュレーションロボットアームによって生成されたデータに基づいて,前方モデルと逆モデルを学ぶことにより因果関係を研究する。
論文 参考訳(メタデータ) (2024-10-10T09:28:30Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Towards Learning and Explaining Indirect Causal Effects in Neural
Networks [22.658383399117003]
NNを構造因果モデル(Structuor causal model, SCM)とみなし、入力ニューロン間にフィードフォワード接続を導入することで間接因果効果を含むように焦点を絞る。
NNモデルトレーニング中の直接的・間接的・総因果効果を捕捉・維持するアンテホック法を提案する。
また,NNモデルにおける学習因果効果の定量化アルゴリズムと,高次元データにおける因果効果の定量化のための効率的な近似手法を提案する。
論文 参考訳(メタデータ) (2023-03-24T08:17:31Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Causal Structure Learning with Recommendation System [46.90516308311924]
まず,その基盤となる因果構造を因果構造モデルとして定式化し,提案システムの現実的な作業機構を基盤とした一般的な因果構造学習フレームワークについて述べる。
次に,本フレームワークから学習目標を導出し,効率的な最適化のための拡張ラグランジアンソルバを提案する。
論文 参考訳(メタデータ) (2022-10-19T02:31:47Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - A Survey on Extraction of Causal Relations from Natural Language Text [9.317718453037667]
因果関係はテキストに頻繁に現れ、テキストから因果関係を計算することで、予測タスクのための因果関係を構築するのに役立つ。
既存の因果抽出技術には、知識ベース、統計機械学習(ML)ベース、深層学習ベースアプローチなどがある。
論文 参考訳(メタデータ) (2021-01-16T10:49:39Z) - Weakly Supervised Disentangled Generative Causal Representation Learning [21.392372783459013]
本研究は, 従来手法では, 監督下においても, 因果関係の要因を解消できないことを示す。
本稿では、因果制御可能な生成と因果表現学習を可能にする、新たな非絡み合い学習法を提案する。
論文 参考訳(メタデータ) (2020-10-06T11:38:41Z) - Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer [89.21584915290319]
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
論文 参考訳(メタデータ) (2020-04-23T14:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。