論文の概要: XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development
- arxiv url: http://arxiv.org/abs/2403.16858v1
- Date: Mon, 25 Mar 2024 15:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:44:21.783378
- Title: XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development
- Title(参考訳): XAIport:AIモデル開発におけるXAIの早期導入のためのサービスフレームワーク
- Authors: Zerui Wang, Yan Liu, Abishek Arumugam Thiruselvi, Abdelwahab Hamou-Lhadj,
- Abstract要約: 本稿では、説明可能なAI(XAI)の早期導入について、3つの特性に焦点をあてて提案する。
我々は、XAIのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として初期の説明を提供する。
- 参考スコア(独自算出の注目度): 7.196813936746303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we propose the early adoption of Explainable AI (XAI) with a focus on three properties: Quality of explanation, the explanation summaries should be consistent across multiple XAI methods; Architectural Compatibility, for effective integration in XAI, the architecture styles of both the XAI methods and the models to be explained must be compatible with the framework; Configurable operations, XAI explanations are operable, akin to machine learning operations. Thus, an explanation for AI models should be reproducible and tractable to be trustworthy. We present XAIport, a framework of XAI microservices encapsulated into Open APIs to deliver early explanations as observation for learning model quality assurance. XAIport enables configurable XAI operations along with machine learning development. We quantify the operational costs of incorporating XAI with three cloud computer vision services on Microsoft Azure Cognitive Services, Google Cloud Vertex AI, and Amazon Rekognition. Our findings show comparable operational costs between XAI and traditional machine learning, with XAIport significantly improving both cloud AI model performance and explanation stability.
- Abstract(参考訳): 本稿では,説明の質,説明の要約は複数のXAIメソッド間で整合性を持つべきであること,アーキテクチャの適合性,XAIメソッドと説明すべきモデルの両方のアーキテクチャスタイルは,フレームワークと互換性がなければならないこと,構成可能な操作,XAIの説明は,機械学習操作と同じような操作性を持つこと,の3点に着目して,説明可能なAI(XAI)の早期導入を提案する。
したがって、AIモデルの説明は再現可能であるべきであり、信頼できるものにすべきである。
我々は、XAIマイクロサービスのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として、初期の説明を提供する。
XAIportは、機械学習開発とともに構成可能なXAI操作を可能にする。
XAIをMicrosoft Azure Cognitive Services、Google Cloud Vertex AI、Amazon Rekognitionの3つのクラウドコンピュータビジョンサービスに組み込むことの運用コストを定量化する。
XAIportは、クラウドAIモデルの性能と説明安定性の両方を大幅に改善する。
関連論文リスト
- Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - XAI for All: Can Large Language Models Simplify Explainable AI? [0.0699049312989311]
x-[plAIn]"は、カスタムのLarge Language Modelを通じて、XAIをより広く利用できるようにする新しいアプローチである。
我々の目標は、様々なXAI手法の明確で簡潔な要約を生成できるモデルを設計することであった。
使用事例調査の結果から,本モデルは理解し易く,観衆特有の説明を提供するのに有効であることが示された。
論文 参考訳(メタデータ) (2024-01-23T21:47:12Z) - Extracting human interpretable structure-property relationships in
chemistry using XAI and large language models [0.4769602527256662]
本稿では,XAI手法と大規模言語モデル(LLM)を統合したXpertAIフレームワークを提案する。
以上の結果から,XpertAI は LLM と XAI ツールの強みを組み合わせ,具体的な,科学的,解釈可能な説明を生成することが示唆された。
論文 参考訳(メタデータ) (2023-11-07T15:02:32Z) - Strategies to exploit XAI to improve classification systems [0.0]
XAIは、AIモデルの意思決定プロセスに関する洞察を提供することを目的としている。
ほとんどのXAI文献は、AIシステムを説明する方法に焦点を当てているが、AIシステムを改善するためにXAIメソッドをどのように活用するかについては、あまり注目されていない。
論文 参考訳(メタデータ) (2023-06-09T10:38:26Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Investigating Explainability of Generative AI for Code through
Scenario-based Design [44.44517254181818]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) (2022-02-10T08:52:39Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。