論文の概要: Fanoos: Multi-Resolution, Multi-Strength, Interactive Explanations for
Learned Systems
- arxiv url: http://arxiv.org/abs/2006.12453v8
- Date: Tue, 15 Feb 2022 21:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:18:48.266545
- Title: Fanoos: Multi-Resolution, Multi-Strength, Interactive Explanations for
Learned Systems
- Title(参考訳): fanoos: 学習システムのためのマルチレゾリューション、マルチレゾリューション、インタラクティブな説明
- Authors: David Bayani (1), Stefan Mitsch (1) ((1) Carnegie Mellon University)
- Abstract要約: Fanoosは、正式な検証テクニック、検索、ユーザインタラクションを組み合わせて、望まれる粒度と忠実度で説明を探索するフレームワークである。
Inverted double pendulum と learn CPU usage model の学習コントローラ上で,ユーザからの要求に応じて,Fanoos が説明の抽象性を生成・調整できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is becoming increasingly important to control the behavior
of safety and financially critical components in sophisticated environments,
where the inability to understand learned components in general, and neural
nets in particular, poses serious obstacles to their adoption. Explainability
and interpretability methods for learned systems have gained considerable
academic attention, but the focus of current approaches on only one aspect of
explanation, at a fixed level of abstraction, and limited if any formal
guarantees, prevents those explanations from being digestible by the relevant
stakeholders (e.g., end users, certification authorities, engineers) with their
diverse backgrounds and situation-specific needs. We introduce Fanoos, a
framework for combining formal verification techniques, heuristic search, and
user interaction to explore explanations at the desired level of granularity
and fidelity. We demonstrate the ability of Fanoos to produce and adjust the
abstractness of explanations in response to user requests on a learned
controller for an inverted double pendulum and on a learned CPU usage model.
- Abstract(参考訳): 機械学習は、高度な環境において安全性と経済的に重要なコンポーネントの振る舞いを制御するためにますます重要になっている。
学習システムの説明可能性と解釈可能性の手法は学術的な注目を集めているが、現在のアプローチの焦点は説明の1つの側面のみであり、一定の抽象化レベルであり、形式的な保証がなければ、それらの説明が関連する利害関係者(エンドユーザー、認証当局、技術者など)の様々な背景と状況に応じたニーズによって消化されるのを防ぐ。
形式的検証手法,ヒューリスティック検索,ユーザインタラクションを組み合わせたフレームワークであるfanoosを導入することで,要求される粒度と忠実度のレベルでの説明を探索する。
本稿では,逆2振子用学習コントローラと学習cpu使用モデルを用いて,ユーザからの要求に応じて説明の抽象性を生成・調整するファヌースの能力を示す。
関連論文リスト
- Composite Learning Units: Generalized Learning Beyond Parameter Updates to Transform LLMs into Adaptive Reasoners [0.0]
連続学習が可能な学習者へ推論器を変換する複合学習ユニット(CLU)を導入する。
CLUは、動的知識リポジトリの保守と進化を可能にするアーキテクチャ上に構築されている。
我々は暗号推論タスクを通じてCLUの有効性を実証し、フィードバックを通じて理解を継続的に進化させ、隠れた変換規則を明らかにする。
論文 参考訳(メタデータ) (2024-10-09T02:27:58Z) - Knowledge-Infused Self Attention Transformers [11.008412414253662]
トランスフォーマーベースの言語モデルは、様々な自然言語処理タスクにおいて驚くべき成功を収めた。
本稿では,トランスモデルの異なるコンポーネントに知識を注入するための体系的手法を提案する。
論文 参考訳(メタデータ) (2023-06-23T13:55:01Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - An Interactive Explanatory AI System for Industrial Quality Control [0.8889304968879161]
我々は,ループ間対話型アプローチに向けて,欠陥検出タスクを拡張することを目的としている。
本稿では,産業品質管理環境における分類のための対話型支援システムを提案する。
論文 参考訳(メタデータ) (2022-03-17T09:04:46Z) - Fast and Slow Learning of Recurrent Independent Mechanisms [80.38910637873066]
本稿では,エージェントが必要とする知識の断片と報酬関数が定常的であり,タスク間で再利用可能なトレーニングフレームワークを提案する。
注意機構は、どのモジュールを現在のタスクに適応できるかを動的に選択する。
提案方式のモジュール的側面のメタラーニングは,強化学習装置の高速化に大きく寄与することがわかった。
論文 参考訳(メタデータ) (2021-05-18T17:50:32Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。