論文の概要: Longitudinal Distance: Towards Accountable Instance Attribution
- arxiv url: http://arxiv.org/abs/2108.10437v1
- Date: Mon, 23 Aug 2021 22:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 21:39:51.412149
- Title: Longitudinal Distance: Towards Accountable Instance Attribution
- Title(参考訳): 縦距離:アカウンタブル・インスタンス・アトリビューションに向けて
- Authors: Rosina O. Weber, Prateek Goel, Shideh Amiri, and Gideon Simpson
- Abstract要約: 本稿では,縦断距離(Longitudinal distance)と呼ばれる擬似測定値を導入し,ニューラルネットワークエージェントの判断に対する属性インスタンスの利用について述べる。
ケースベース推論の原則に着想を得た本論文では、縦方向距離と呼ばれる擬似メトリクスを導入し、ニューラルネットワークエージェントの決定に対する属性インスタンスの利用について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous research in interpretable machine learning (IML) and explainable
artificial intelligence (XAI) can be broadly categorized as either focusing on
seeking interpretability in the agent's model (i.e., IML) or focusing on the
context of the user in addition to the model (i.e., XAI). The former can be
categorized as feature or instance attribution. Example- or sample-based
methods such as those using or inspired by case-based reasoning (CBR) rely on
various approaches to select instances that are not necessarily attributing
instances responsible for an agent's decision. Furthermore, existing approaches
have focused on interpretability and explainability but fall short when it
comes to accountability. Inspired in case-based reasoning principles, this
paper introduces a pseudo-metric we call Longitudinal distance and its use to
attribute instances to a neural network agent's decision that can be
potentially used to build accountable CBR agents.
- Abstract(参考訳): 解釈可能な機械学習(IML)と説明可能な人工知能(XAI)のこれまでの研究は、エージェントのモデル(つまりIML)の解釈可能性を求めること、あるいはモデル(すなわちXAI)に加えてユーザのコンテキストに焦点を当てることに大きく分類することができる。
前者は特徴または例帰属に分類される。
ケースベース推論(cbr)を使用したり、インスパイアされたりする例やサンプルベースのメソッドは、エージェントの決定に責任を持つインスタンスを必ずしも帰属しないインスタンスを選択するための様々なアプローチに依存している。
さらに、既存のアプローチでは解釈可能性と説明可能性に注目しているが、説明責任に関しては不足している。
ケースベース推論の原則に着想を得た本論文では,CBRエージェントの構築に使用可能なニューラルネットワークエージェントの判断に対する属性インスタンスの使用を,縦断距離と呼ぶ擬似メトリックを導入する。
関連論文リスト
- LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z) - Context-aware feature attribution through argumentation [0.0]
我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
論文 参考訳(メタデータ) (2023-10-24T20:02:02Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Semantic Role Labeling Meets Definition Modeling: Using Natural Language
to Describe Predicate-Argument Structures [104.32063681736349]
本稿では,離散ラベルの代わりに自然言語定義を用いて述語-代名詞構造を記述する手法を提案する。
PropBankスタイルおよびFrameNetスタイル、依存性ベースおよびスパンベースSRLに関する実験と分析は、解釈可能な出力を持つフレキシブルモデルが必ずしも性能を犠牲にしないことを示す。
論文 参考訳(メタデータ) (2022-12-02T11:19:16Z) - Explainable Reinforcement Learning via Model Transforms [18.385505289067023]
基礎となるマルコフ決定プロセスが完全には分かっていないとしても、それにもかかわらず、自動的に説明を生成するために利用することができる、と我々は主張する。
本稿では,従来の文献で最適ポリシー探索の高速化に用いられていた形式的MDP抽象化と変換を用いて,説明を自動的に生成することを提案する。
論文 参考訳(メタデータ) (2022-09-24T13:18:06Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - Learning Causal Models of Autonomous Agents using Interventions [11.351235628684252]
我々は、AIシステムがシミュレータで高レベルの命令シーケンスを実行することができるエージェントアセスメントモジュールの分析を拡張した。
このような原始的なクエリ応答能力は、システムのユーザ解釈可能な因果関係モデルを効率的に導出するのに十分であることを示す。
論文 参考訳(メタデータ) (2021-08-21T21:33:26Z) - Validation and Inference of Agent Based Models [0.0]
Agent Based Modelling (ABM) は自律エージェントの動作と相互作用をシミュレーションするための計算フレームワークである。
ABCの最近の研究は、近似確率を計算するためのアルゴリズムをますます効率的にしている。
これらをハミルトンCBDの歩行者モデルを用いて検討・比較した。
論文 参考訳(メタデータ) (2021-07-08T05:53:37Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - Multi-Agent Systems based on Contextual Defeasible Logic considering
Focus [0.0]
我々は Contextual Defeasible Logic (CDL) を用いた分散推論に関する以前の研究を拡張した。
この研究は、エージェントがローカル知識ベースとマッピングルールで推論できるCDLに基づくマルチエージェントモデルを示す。
本稿では,BDI(Belief-Desire-Intention)エージェントモデルに基づくユースケースシナリオ,提案するモデルの形式化,および初期実装について述べる。
論文 参考訳(メタデータ) (2020-10-01T01:50:08Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。