論文の概要: Tell me why! -- Explanations support learning of relational and causal
structure
- arxiv url: http://arxiv.org/abs/2112.03753v1
- Date: Tue, 7 Dec 2021 15:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:13:07.489696
- Title: Tell me why! -- Explanations support learning of relational and causal
structure
- Title(参考訳): なぜだ!
--関係・因果構造の学習を支援する説明
- Authors: Andrew K. Lampinen, Nicholas A. Roy, Ishita Dasgupta, Stephanie C. Y.
Chan, Allison C. Tam, James L. McClelland, Chen Yan, Adam Santoro, Neil C.
Rabinowitz, Jane X. Wang, Felix Hill
- Abstract要約: 説明は人間の学習、特にAIにとって大きな課題となっている分野において重要な役割を担っている。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
- 参考スコア(独自算出の注目度): 24.434551113103105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanations play a considerable role in human learning, especially in areas
thatremain major challenges for AI -- forming abstractions, and learning about
the re-lational and causal structure of the world. Here, we explore whether
reinforcement learning agents might likewise benefit from explanations. We
outline a family of relational tasks that involve selecting an object that is
the odd one out in a set (i.e., unique along one of many possible feature
dimensions). Odd-one-out tasks require agents to reason over multi-dimensional
relationships among a set of objects. We show that agents do not learn these
tasks well from reward alone, but achieve >90% performance when they are also
trained to generate language explaining object properties or why a choice is
correct or incorrect. In further experiments, we show how predicting
explanations enables agents to generalize appropriately from ambiguous,
causally-confounded training, and even to meta-learn to perform experimental
interventions to identify causal structure. We show that explanations help
overcome the tendency of agents to fixate on simple features, and explore which
aspects of explanations make them most beneficial. Our results suggest that
learning from explanations is a powerful principle that could offer a promising
path towards training more robust and general machine learning systems.
- Abstract(参考訳): 説明は人間の学習、特にAIの主要な課題である領域において、抽象を形成し、世界の再帰的・因果的構造について学ぶ上で重要な役割を担っている。
ここでは,強化学習エージェントが説明の恩恵を受けるかどうかを検討する。
我々は、集合内の奇数な対象(すなわち、多くの可能な特徴次元の1つに一意)を選択するための関係性タスクのファミリーを概説する。
オッドワンアウトタスクでは、エージェントは一連のオブジェクト間の多次元関係を推論する必要がある。
エージェントは報酬だけではこれらのタスクをうまく学習しないが、オブジェクトの特性や選択が正しくない理由を説明する言語を生成する訓練を受けた場合、90%以上のパフォーマンスを達成する。
さらなる実験では、予測説明がエージェントを曖昧で因果的結合のトレーニングから適切に一般化し、メタリーンは因果構造を識別するために実験的な介入を行うことができることを示す。
説明は,単純な特徴に固執するエージェントの傾向を克服し,説明のどの側面が最も有益かを探究する上で有効であることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道をもたらすことを示唆している。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning by Self-Explaining [23.420673675343266]
我々は、自己説明による学習(LSX)と呼ばれる画像分類の文脈において、新しいワークフローを導入する。
LSXは、自己修復型AIと人間誘導型説明機械学習の側面を利用する。
本結果は,自己説明による学習による改善を,いくつかのレベルで示すものである。
論文 参考訳(メタデータ) (2023-09-15T13:41:57Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Inherently Explainable Reinforcement Learning in Natural Language [14.117921448623342]
本稿では,本質的に説明可能な強化学習エージェントの開発に焦点をあてる。
この階層的説明可能な強化学習エージェントは、インタラクティブフィクション、テキストベースのゲーム環境で動作する。
私たちのエージェントは、説明責任を第一級市民として扱うように設計されています。
論文 参考訳(メタデータ) (2021-12-16T14:24:35Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z) - What Did You Think Would Happen? Explaining Agent Behaviour Through
Intended Outcomes [30.056732656973637]
本稿では,意図した結果の概念に基づく強化学習の新たな説明方法を提案する。
これらの説明は、エージェントがそのアクションによって達成しようとしている結果を記述している。
従来の強化学習では,この性質のポストホックな説明のための一般的な手法は不可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T12:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。