論文の概要: Asking the Right Questions: Learning Interpretable Action Models Through
Query Answering
- arxiv url: http://arxiv.org/abs/1912.12613v6
- Date: Fri, 9 Apr 2021 16:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 07:45:50.801590
- Title: Asking the Right Questions: Learning Interpretable Action Models Through
Query Answering
- Title(参考訳): 正しい質問: クエリ応答を通じて解釈可能なアクションモデルを学ぶ
- Authors: Pulkit Verma, Shashank Rao Marpally, Siddharth Srivastava
- Abstract要約: 本稿では,ブラックボックス型自律エージェントの解釈可能なリレーショナルモデルを設計・動作可能な新しいアプローチを開発する。
我々の主な貢献は、エージェントとの最小クエリインタフェースを用いてそのようなモデルを推定するための新しいパラダイムと、エージェントの内部モデルを推定するための尋問ポリシーを生成する階層的なクエリアルゴリズムである。
- 参考スコア(独自算出の注目度): 33.08099403894141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper develops a new approach for estimating an interpretable,
relational model of a black-box autonomous agent that can plan and act. Our
main contributions are a new paradigm for estimating such models using a
minimal query interface with the agent, and a hierarchical querying algorithm
that generates an interrogation policy for estimating the agent's internal
model in a vocabulary provided by the user. Empirical evaluation of our
approach shows that despite the intractable search space of possible agent
models, our approach allows correct and scalable estimation of interpretable
agent models for a wide class of black-box autonomous agents. Our results also
show that this approach can use predicate classifiers to learn interpretable
models of planning agents that represent states as images.
- Abstract(参考訳): 本稿では,計画と行動が可能なブラックボックス自律エージェントの解釈可能な関係モデルを推定するための新しい手法を提案する。
我々の主な貢献は、エージェントとの最小クエリインタフェースを用いてそのようなモデルを推定するための新しいパラダイムと、ユーザが提供する語彙でエージェントの内部モデルを推定するための尋問ポリシーを生成する階層的なクエリアルゴリズムである。
提案手法の実証評価により, エージェントモデルの難解な探索空間にもかかわらず, 幅広いブラックボックス自律エージェントに対して, 解釈可能なエージェントモデルの正確かつスケーラブルな推定が可能となった。
また,この手法は,述語分類器を用いて,状態を画像として表現する計画エージェントの解釈可能なモデルを学ぶことができることを示した。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Pseudointelligence: A Unifying Framework for Language Model Evaluation [14.95543156914676]
本稿では,モデルと学習評価器の動的相互作用として,モデル評価キャストの複雑性理論フレームワークを提案する。
このフレームワークは,言語モデル評価における2つのケーススタディを推論し,既存の評価手法を解析するために利用できることを示す。
論文 参考訳(メタデータ) (2023-10-18T17:48:05Z) - How to Estimate Model Transferability of Pre-Trained Speech Models? [84.11085139766108]
事前学習音声モデルの伝達可能性推定のためのスコアベースアセスメントフレームワーク
ベイズ確率推定と最適輸送という2つの表現理論を利用して、PSM候補のランクスコアを生成する。
本フレームワークは,候補モデルやレイヤを実際に微調整することなく,転送可能性スコアを効率的に計算する。
論文 参考訳(メタデータ) (2023-06-01T04:52:26Z) - Differential Assessment of Black-Box AI Agents [29.98710357871698]
従来知られていたモデルから逸脱したブラックボックスAIエージェントを差分評価する手法を提案する。
我々は,漂流エージェントの現在の挙動と初期モデルの知識の疎度な観察を利用して,アクティブなクエリポリシーを生成する。
経験的評価は、エージェントモデルをスクラッチから再学習するよりも、我々のアプローチの方がはるかに効率的であることを示している。
論文 参考訳(メタデータ) (2022-03-24T17:48:58Z) - Evaluating Bayesian Model Visualisations [0.39845810840390733]
確率モデルは、最終的に人々が下した幅広いビジネスおよび政策決定を知らせる。
近年のアルゴリズム,計算,ソフトウェアフレームワークの開発はベイズ確率モデルの普及を促進する。
意思決定者は複雑なクエリを探索し、理論上はWhat-if-style条件付けを行うことができるが、不確実性の下でユーザの理解と合理的な意思決定を最大化するためには、適切な視覚化と対話ツールが必要である。
論文 参考訳(メタデータ) (2022-01-10T19:15:39Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Validation and Inference of Agent Based Models [0.0]
Agent Based Modelling (ABM) は自律エージェントの動作と相互作用をシミュレーションするための計算フレームワークである。
ABCの最近の研究は、近似確率を計算するためのアルゴリズムをますます効率的にしている。
これらをハミルトンCBDの歩行者モデルを用いて検討・比較した。
論文 参考訳(メタデータ) (2021-07-08T05:53:37Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z) - Agent Modelling under Partial Observability for Deep Reinforcement
Learning [12.903487594031276]
エージェントモデリングの既存の方法は、実行中にローカルな観察とモデル化されたエージェントの選択されたアクションの知識を仮定する。
制御されたエージェントの局所的な観察に基づいて,モデル化されたエージェントの表現を抽出することを学ぶ。
これらの表現は、深い強化学習を通じて訓練された制御エージェントの決定ポリシーを強化するために使用される。
論文 参考訳(メタデータ) (2020-06-16T18:43:42Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。