論文の概要: Inverse Decision Modeling: Learning Interpretable Representations of
Behavior
- arxiv url: http://arxiv.org/abs/2310.18591v1
- Date: Sat, 28 Oct 2023 05:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:42:42.200861
- Title: Inverse Decision Modeling: Learning Interpretable Representations of
Behavior
- Title(参考訳): 逆決定モデル:行動の解釈可能な表現の学習
- Authors: Daniel Jarrett, Alihan H\"uy\"uk, Mihaela van der Schaar
- Abstract要約: 我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
- 参考スコア(独自算出の注目度): 72.80902932543474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision analysis deals with modeling and enhancing decision processes. A
principal challenge in improving behavior is in obtaining a transparent
description of existing behavior in the first place. In this paper, we develop
an expressive, unifying perspective on inverse decision modeling: a framework
for learning parameterized representations of sequential decision behavior.
First, we formalize the forward problem (as a normative standard), subsuming
common classes of control behavior. Second, we use this to formalize the
inverse problem (as a descriptive model), generalizing existing work on
imitation/reward learning -- while opening up a much broader class of research
problems in behavior representation. Finally, we instantiate this approach with
an example (inverse bounded rational control), illustrating how this structure
enables learning (interpretable) representations of (bounded) rationality --
while naturally capturing intuitive notions of suboptimal actions, biased
beliefs, and imperfect knowledge of environments.
- Abstract(参考訳): 決定分析は、意思決定プロセスのモデリングと強化を扱う。
行動を改善する上での最大の課題は、そもそも既存の行動の透明な説明を得ることである。
本稿では、逐次的決定行動のパラメータ化表現を学習するフレームワークである逆決定モデリングの表現的統一的な視点を開発する。
まず、制御行動の共通クラスを仮定して前方問題(規範的標準として)を定式化する。
第2に、逆問題(記述モデルとして)を形式化し、模倣/逆学習に関する既存の作業を一般化すると同時に、行動表現におけるより広範な研究のクラスを開く。
最後に、このアプローチを例(逆有界有理制御)でインスタンス化し、この構造が(境界付き)合理性の(解釈可能な)表現をどのように学習できるかを示します。
関連論文リスト
- Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Fixing confirmation bias in feature attribution methods via semantic
match [4.733072355085082]
モデル上の仮説が特徴属性によって確認されるかどうかを検証するためには,構造的アプローチが必要である,と我々は主張する。
これは、人間の概念と(サブシンボリックな)説明の「セマンティックマッチ」と呼ばれるものです。
論文 参考訳(メタデータ) (2023-07-03T09:50:08Z) - Towards a Grounded Theory of Causation for Embodied AI [12.259552039796027]
既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
論文 参考訳(メタデータ) (2022-06-28T12:56:43Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Neuro-symbolic Natural Logic with Introspective Revision for Natural
Language Inference [17.636872632724582]
イントロスペクティブ・リビジョンを用いた強化学習に基づくニューロシンボリック・ナチュラル・ロジック・フレームワークを提案する。
提案モデルには解釈可能性があり, 単調性推論, 体系的一般化, 解釈可能性に優れた能力を示す。
論文 参考訳(メタデータ) (2022-03-09T16:31:58Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Dissecting Generation Modes for Abstractive Summarization Models via
Ablation and Attribution [34.2658286826597]
本稿では,要約モデル決定を解釈する2段階の手法を提案する。
まず、各デコーダ決定を複数の生成モードの1つに分類するために、モデル全体を非難することでモデルの振舞いを解析する。
入力に依存する決定を分離した後、いくつかの異なる帰属法を用いてこれらの決定を解釈する。
論文 参考訳(メタデータ) (2021-06-03T00:54:16Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。