論文の概要: Inverse Decision Modeling: Learning Interpretable Representations of
Behavior
- arxiv url: http://arxiv.org/abs/2310.18591v1
- Date: Sat, 28 Oct 2023 05:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:42:42.200861
- Title: Inverse Decision Modeling: Learning Interpretable Representations of
Behavior
- Title(参考訳): 逆決定モデル:行動の解釈可能な表現の学習
- Authors: Daniel Jarrett, Alihan H\"uy\"uk, Mihaela van der Schaar
- Abstract要約: 我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
- 参考スコア(独自算出の注目度): 72.80902932543474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision analysis deals with modeling and enhancing decision processes. A
principal challenge in improving behavior is in obtaining a transparent
description of existing behavior in the first place. In this paper, we develop
an expressive, unifying perspective on inverse decision modeling: a framework
for learning parameterized representations of sequential decision behavior.
First, we formalize the forward problem (as a normative standard), subsuming
common classes of control behavior. Second, we use this to formalize the
inverse problem (as a descriptive model), generalizing existing work on
imitation/reward learning -- while opening up a much broader class of research
problems in behavior representation. Finally, we instantiate this approach with
an example (inverse bounded rational control), illustrating how this structure
enables learning (interpretable) representations of (bounded) rationality --
while naturally capturing intuitive notions of suboptimal actions, biased
beliefs, and imperfect knowledge of environments.
- Abstract(参考訳): 決定分析は、意思決定プロセスのモデリングと強化を扱う。
行動を改善する上での最大の課題は、そもそも既存の行動の透明な説明を得ることである。
本稿では、逐次的決定行動のパラメータ化表現を学習するフレームワークである逆決定モデリングの表現的統一的な視点を開発する。
まず、制御行動の共通クラスを仮定して前方問題(規範的標準として)を定式化する。
第2に、逆問題(記述モデルとして)を形式化し、模倣/逆学習に関する既存の作業を一般化すると同時に、行動表現におけるより広範な研究のクラスを開く。
最後に、このアプローチを例(逆有界有理制御)でインスタンス化し、この構造が(境界付き)合理性の(解釈可能な)表現をどのように学習できるかを示します。
関連論文リスト
- Causal Abstraction in Model Interpretability: A Compact Survey [5.963324728136442]
因果的抽象化は、モデル行動の基礎となる因果的メカニズムを理解し説明するための原則化されたアプローチを提供する。
本研究は, 因果的抽象の領域を掘り下げ, その理論的基礎, 実践的応用, モデル解釈可能性の分野への含意について考察する。
論文 参考訳(メタデータ) (2024-10-26T12:24:28Z) - Generally-Occurring Model Change for Robust Counterfactual Explanations [1.3121410433987561]
モデル変更に対する対実的説明生成アルゴリズムの堅牢性について検討する。
本稿では,まず自然発生モデル変化の概念を一般化する。
また、モデルパラメータ変化のより一般的な概念である、モデル変化の一般発生についても提案する。
論文 参考訳(メタデータ) (2024-07-16T06:44:00Z) - Representation Surgery: Theory and Practice of Affine Steering [72.61363182652853]
言語モデルは、しばしば好ましくない振る舞いを示す。
モデルが望ましくない振る舞いを示すのを防ぐための自然な(そして一般的な)アプローチの1つは、モデルの表現を操ることである。
本稿では, ステアリング機能の形式的および経験的特性について検討する。
論文 参考訳(メタデータ) (2024-02-15T00:20:30Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Towards a Grounded Theory of Causation for Embodied AI [12.259552039796027]
既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
論文 参考訳(メタデータ) (2022-06-28T12:56:43Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。