論文の概要: Why Should I Choose You? AutoXAI: A Framework for Selecting and Tuning
eXplainable AI Solutions
- arxiv url: http://arxiv.org/abs/2210.02795v1
- Date: Thu, 6 Oct 2022 10:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:10:26.712152
- Title: Why Should I Choose You? AutoXAI: A Framework for Selecting and Tuning
eXplainable AI Solutions
- Title(参考訳): なぜ君を選んだらいいのか。
AutoXAI: eXplainable AIソリューションの選択とチューニングのためのフレームワーク
- Authors: Robin Cugny, Julien Aligon, Max Chevalier, Geoffrey Roman Jimenez and
Olivier Teste
- Abstract要約: AutoXAIは、特定のXAI評価指標に従って最良のXAIソリューションを推奨するフレームワークである。
コンテキスト対応レコメンデータシステムからのアプローチとAutoMLからの最適化と評価の戦略に適応する。
- 参考スコア(独自算出の注目度): 0.9449650062296825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a large number of XAI (eXplainable Artificial Intelligence)
solutions have been proposed to explain existing ML (Machine Learning) models
or to create interpretable ML models. Evaluation measures have recently been
proposed and it is now possible to compare these XAI solutions. However,
selecting the most relevant XAI solution among all this diversity is still a
tedious task, especially when meeting specific needs and constraints. In this
paper, we propose AutoXAI, a framework that recommends the best XAI solution
and its hyperparameters according to specific XAI evaluation metrics while
considering the user's context (dataset, ML model, XAI needs and constraints).
It adapts approaches from context-aware recommender systems and strategies of
optimization and evaluation from AutoML (Automated Machine Learning). We apply
AutoXAI to two use cases, and show that it recommends XAI solutions adapted to
the user's needs with the best hyperparameters matching the user's constraints.
- Abstract(参考訳): 近年、既存のML(Machine Learning)モデルの説明や解釈可能なMLモデルを作成するために、多くのXAI(eXplainable Artificial Intelligence)ソリューションが提案されている。
近年,評価手法が提案され,これらのxaiソリューションを比較できるようになった。
しかしながら、これらの多様性の中で最も重要なXAIソリューションを選択するのは、特に特定のニーズや制約を満たす場合、いまだに面倒な作業です。
本稿では,ユーザのコンテキスト(データセット,MLモデル,XAIのニーズ,制約)を考慮して,最適なXAIソリューションとそのハイパーパラメータを,特定のXAI評価指標に従って推奨するフレームワークであるAutoXAIを提案する。
コンテキスト対応レコメンデータシステムからのアプローチとAutoML(Automated Machine Learning)からの最適化と評価戦略に適応する。
われわれはAutoXAIを2つのユースケースに適用し、ユーザのニーズに合わせて最適なハイパーパラメータでXAIソリューションを推奨していることを示す。
関連論文リスト
- Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - XpertAI: uncovering model strategies for sub-manifolds [1.2874569408514918]
レグレッションでは、特定のユーザクエリに対処するために、説明を正確に定式化する必要がある。
XpertAIは、予測戦略を複数の範囲固有のサブストラテジーに切り離すフレームワークである。
論文 参考訳(メタデータ) (2024-03-12T10:21:31Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Do We Need Another Explainable AI Method? Toward Unifying Post-hoc XAI
Evaluation Methods into an Interactive and Multi-dimensional Benchmark [6.511859672210113]
我々は,xAIアルゴリズムに適用された排他的機能テスト手法を統一するベンチマークであるComparce-xAIを提案する。
このベンチマークは、xAIメソッドを評価する複雑さを3つの階層的なスコアリングにカプセル化する。
インタラクティブなユーザインターフェースは、xAI結果の解釈におけるエラーの軽減に役立つ。
論文 参考訳(メタデータ) (2022-06-08T06:13:39Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。