論文の概要: EVOTER: Evolution of Transparent Explainable Rule-sets
- arxiv url: http://arxiv.org/abs/2204.10438v3
- Date: Fri, 26 May 2023 05:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 00:27:21.123936
- Title: EVOTER: Evolution of Transparent Explainable Rule-sets
- Title(参考訳): EVOTER: 透明な説明可能なルールセットの進化
- Authors: Hormoz Shahrzad, Babak Hodjat, Risto Miikkulainen
- Abstract要約: 本稿では,まずモデルが透明で説明しやすいアプローチを提唱する。
このアプローチは、いくつかの予測/分類と処方/政治検索ドメインで評価される。
ブラックボックスモデルと同様に機能する有意義なルールセットを発見することが示されている。
- 参考スコア(独自算出の注目度): 14.272883554753323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most AI systems are black boxes generating reasonable outputs for given
inputs. Some domains, however, have explainability and trustworthiness
requirements that cannot be directly met by these approaches. Various methods
have therefore been developed to interpret black-box models after training.
This paper advocates an alternative approach where the models are transparent
and explainable to begin with. This approach, EVOTER, evolves rule-sets based
on simple logical expressions. The approach is evaluated in several
prediction/classification and prescription/policy search domains with and
without a surrogate. It is shown to discover meaningful rule sets that perform
similarly to black-box models. The rules can provide insight into the domain,
and make biases hidden in the data explicit. It may also be possible to edit
them directly to remove biases and add constraints. EVOTER thus forms a
promising foundation for building trustworthy AI systems for real-world
applications in the future.
- Abstract(参考訳): ほとんどのAIシステムは、与えられた入力に対して適切な出力を生成するブラックボックスである。
しかし、いくつかのドメインは、これらのアプローチで直接満足できない説明可能性と信頼性要件を持っている。
そのため、トレーニング後にブラックボックスモデルを解釈するために様々な方法が開発されている。
本稿では,モデルが透過的かつ説明可能な代替手法を提案する。
このアプローチ、EVOTERは単純な論理式に基づいてルールセットを進化させる。
この手法は、いくつかの予測/分類と処方/政治検索ドメインにおいて代理なしで評価される。
ブラックボックスモデルと同様に実行される有意義なルールセットを見つけることが示される。
ルールはドメインに関する洞察を与え、データに隠されたバイアスを明示する。
バイアスを取り除き、制約を追加するために、それらを直接編集することもできる。
EVOTERは将来、現実世界のアプリケーションのための信頼できるAIシステムを構築するための有望な基盤となる。
関連論文リスト
- Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance [0.0]
ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
ルールベースモデルが近似したブラックボックスモデルと同じ方法で決定を行うかどうかは、まだ調査されていない。
論文 参考訳(メタデータ) (2024-07-16T07:56:29Z) - Hacking a surrogate model approach to XAI [49.1574468325115]
識別されたサブグループがブラックボックスADMシステムから肯定的な決定を下さない場合でも、対応するグループメンバーシップの問題は、必要に応じて低いレベルまで押し下げることができることを示す。
我々のアプローチは、他の代理モデルに容易に一般化できる。
論文 参考訳(メタデータ) (2024-06-24T13:18:02Z) - Plausible Extractive Rationalization through Semi-Supervised Entailment Signal [29.67884478799914]
抽出された有理量の妥当性を最適化するために,半教師付きアプローチを採用する。
我々は、事前学習された自然言語推論(NLI)モデルを採用し、さらに教師付き論理の小さなセットに微調整する。
質問応答タスクにおける説明と回答のアライメント合意を強制することにより、真理ラベルにアクセスせずに性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-13T14:12:32Z) - Faithful Model Explanations through Energy-Constrained Conformal
Counterfactuals [16.67633872254042]
ブラックボックスモデルを説明するための直感的で直感的な説明を提供する。
既存の作業は主に、入力データの分散方法を学ぶために代理モデルに依存しています。
そこで本研究では,モデルが許容する範囲でのみ有効な,エネルギー制約のあるコンフォーマル・カウンセリングを生成するための新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:24:44Z) - Learning Transferable Conceptual Prototypes for Interpretable
Unsupervised Domain Adaptation [79.22678026708134]
本稿では,Transferable Prototype Learning (TCPL) という,本質的に解釈可能な手法を提案する。
この目的を達成するために、ソースドメインからターゲットドメインにカテゴリの基本概念を転送する階層的なプロトタイプモジュールを設計し、基礎となる推論プロセスを説明するためにドメイン共有プロトタイプを学習する。
総合的な実験により,提案手法は有効かつ直感的な説明を提供するだけでなく,従来の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-12T06:36:41Z) - Black-Box Anomaly Attribution [13.455748795087493]
ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
論文 参考訳(メタデータ) (2023-05-29T01:42:32Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。