論文の概要: Explainable AI via Learning to Optimize
- arxiv url: http://arxiv.org/abs/2204.14174v1
- Date: Fri, 29 Apr 2022 15:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 19:02:21.479403
- Title: Explainable AI via Learning to Optimize
- Title(参考訳): 学習と最適化による説明可能なAI
- Authors: Howard Heaton and Samy Wu Fung
- Abstract要約: 機械学習(ML)では非解読可能なブラックボックスが一般的だが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
- 参考スコア(独自算出の注目度): 2.8010955192967852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indecipherable black boxes are common in machine learning (ML), but
applications increasingly require explainable artificial intelligence (XAI).
The core of XAI is to establish transparent and interpretable data-driven
algorithms. This work provides concrete tools for XAI in situations where prior
knowledge must be encoded and untrustworthy inferences flagged. We use the
"learn to optimize" (L2O) methodology wherein each inference solves a
data-driven optimization problem. Our L2O models are straightforward to
implement, directly encode prior knowledge, and yield theoretical guarantees
(e.g. satisfaction of constraints). We also propose use of interpretable
certificates to verify whether model inferences are trustworthy. Numerical
examples are provided in the applications of dictionary-based signal recovery,
CT imaging, and arbitrage trading of cryptoassets.
- Abstract(参考訳): 機械学習(ML)では非解読可能なブラックボックスが一般的であるが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
XAIの中核は、透明で解釈可能なデータ駆動アルゴリズムを確立することである。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
各推論がデータ駆動最適化問題を解決する"learn to optimize"(l2o)方法論を使用する。
私たちのl2oモデルは実装が簡単で、事前知識を直接エンコードし、理論的保証(例えば制約の満足度)を与えます。
また,モデル推論が信頼できるかどうかを検証するために,解釈可能な証明書の利用を提案する。
数値的な例は、辞書ベースの信号回復、CTイメージング、および暗号通貨の仲裁取引の適用例である。
関連論文リスト
- Towards Constituting Mathematical Structures for Learning to Optimize [101.80359461134087]
近年,機械学習を利用してデータから最適化アルゴリズムを自動学習する技術が注目されている。
ジェネリックL2Oアプローチは反復更新ルールをパラメータ化し、ブラックボックスネットワークとして更新方向を学ぶ。
一般的なアプローチは広く適用できるが、学習されたモデルは過度に適合し、配布外テストセットにうまく一般化できない。
本稿では, 分布外問題に対して広く適用でき, 一般化された, 数学に着想を得た構造を持つ新しいL2Oモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T19:37:28Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital
Twin: Case Study on Remaining Useful Life [0.0]
機械学習(ML)と人工知能(AI)は、エネルギーとエンジニアリングシステムでますます使われている。
これらのモデルは公平で、偏見がなく、説明可能である必要がある。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Symbolic Learning to Optimize: Towards Interpretability and Scalability [113.23813868412954]
近年のL2O(Learning to Optimize)研究は,複雑なタスクに対する最適化手順の自動化と高速化に期待できる道のりを示唆している。
既存のL2Oモデルは、ニューラルネットワークによる最適化ルールをパラメータ化し、メタトレーニングを通じてそれらの数値ルールを学ぶ。
本稿では,L2Oの総合的な記号表現と解析の枠組みを確立する。
そこで本稿では,大規模問題にメタトレーニングを施す軽量なL2Oモデルを提案する。
論文 参考訳(メタデータ) (2022-03-13T06:04:25Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - TrustyAI Explainability Toolkit [1.0499611180329804]
trustyaiが意思決定サービスと予測モデルに対する信頼をどのように支援できるか検討する。
我々は, LIME, SHAP, および対策技術について検討する。
また、評価対象の背景データ選択をサポートするSHAPの拡張バージョンについても検討します。
論文 参考訳(メタデータ) (2021-04-26T17:00:32Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。