論文の概要: Explainable Knowledge Graph Embedding: Inference Reconciliation for
Knowledge Inferences Supporting Robot Actions
- arxiv url: http://arxiv.org/abs/2205.01836v1
- Date: Wed, 4 May 2022 01:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 03:31:22.242970
- Title: Explainable Knowledge Graph Embedding: Inference Reconciliation for
Knowledge Inferences Supporting Robot Actions
- Title(参考訳): 説明可能な知識グラフ埋め込み: ロボット行動を支援する知識推論のための推論和解
- Authors: Angel Daruna, Devleena Das, and Sonia Chernova
- Abstract要約: 我々は、学習したブラックボックス知識グラフ表現の推論を説明するために、教育的アプローチを用いる。
我々の解釈可能なモデルでは、決定木分類器を用いてブラックボックスモデルの予測を局所的に近似する。
シミュレーションロボット評価の結果から,非専門家が不規則なロボット動作を補正できることが示唆された。
- 参考スコア(独自算出の注目度): 11.888728516442907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learned knowledge graph representations supporting robots contain a wealth of
domain knowledge that drives robot behavior. However, there does not exist an
inference reconciliation framework that expresses how a knowledge graph
representation affects a robot's sequential decision making. We use a
pedagogical approach to explain the inferences of a learned, black-box
knowledge graph representation, a knowledge graph embedding. Our interpretable
model, uses a decision tree classifier to locally approximate the predictions
of the black-box model, and provides natural language explanations
interpretable by non-experts. Results from our algorithmic evaluation affirm
our model design choices, and the results of our user studies with non-experts
support the need for the proposed inference reconciliation framework.
Critically, results from our simulated robot evaluation indicate that our
explanations enable non-experts to correct erratic robot behaviors due to
nonsensical beliefs within the black-box.
- Abstract(参考訳): ロボットを支援する知識グラフの学習には、ロボットの振る舞いを駆動する豊富な知識が含まれている。
しかし、知識グラフ表現がロボットの逐次的意思決定にどのように影響するかを表現する推論調整フレームワークは存在しない。
学習されたブラックボックスの知識グラフ表現、知識グラフ埋め込みの推論を説明するのに教育的アプローチを用いる。
我々の解釈可能なモデルは、ブラックボックスモデルの予測を局所的に近似するために決定木分類器を使用し、非専門家によって解釈可能な自然言語説明を提供する。
アルゴリズム評価の結果はモデル設計の選択を裏付けるものであり,非専門家によるユーザ調査の結果は,提案する推論調整フレームワークの必要性を裏付けるものである。
批判的に,シミュレーションロボットによる評価の結果,ブラックボックス内の非感覚的信念により,非専門家がロボットの動作を正すことができた。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - Computing Rule-Based Explanations of Machine Learning Classifiers using
Knowledge Graphs [62.997667081978825]
我々は、機械学習分類器の動作を説明する用語を提供する基盤となるフレームワークとして知識グラフを使用している。
特に,知識グラフの用語で表される一階述語論理規則の形で,ブラックボックスの説明を抽出し,表現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T16:21:49Z) - Dynamic Knowledge Graphs as Semantic Memory Model for Industrial Robots [0.7863638253070437]
本稿では,機械が情報や経験を収集し,時間とともにより熟達する意味記憶モデルを提案する。
データのセマンティック分析の後、情報は、自然言語で表現された命令を理解し、必要なタスクを決定論的に実行するために使用される知識グラフに格納される。
論文 参考訳(メタデータ) (2021-01-04T17:15:30Z) - Axiom Learning and Belief Tracing for Transparent Decision Making in
Robotics [8.566457170664926]
ロボットがその決定や信念の説明を提供する能力は、人間との効果的なコラボレーションを促進する。
我々のアーキテクチャは、非単調な論理的推論、ディープラーニング、決定木帰納の相補的な強みを兼ね備えています。
推論と学習の間、このアーキテクチャにより、ロボットはその決定、信念、仮説的行動の結果について、オンデマンドでリレーショナルな記述を提供することができる。
論文 参考訳(メタデータ) (2020-10-20T22:09:17Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。