論文の概要: XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development
- arxiv url: http://arxiv.org/abs/2403.16858v1
- Date: Mon, 25 Mar 2024 15:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:44:21.783378
- Title: XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development
- Title(参考訳): XAIport:AIモデル開発におけるXAIの早期導入のためのサービスフレームワーク
- Authors: Zerui Wang, Yan Liu, Abishek Arumugam Thiruselvi, Abdelwahab Hamou-Lhadj,
- Abstract要約: 本稿では、説明可能なAI(XAI)の早期導入について、3つの特性に焦点をあてて提案する。
我々は、XAIのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として初期の説明を提供する。
- 参考スコア(独自算出の注目度): 7.196813936746303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we propose the early adoption of Explainable AI (XAI) with a focus on three properties: Quality of explanation, the explanation summaries should be consistent across multiple XAI methods; Architectural Compatibility, for effective integration in XAI, the architecture styles of both the XAI methods and the models to be explained must be compatible with the framework; Configurable operations, XAI explanations are operable, akin to machine learning operations. Thus, an explanation for AI models should be reproducible and tractable to be trustworthy. We present XAIport, a framework of XAI microservices encapsulated into Open APIs to deliver early explanations as observation for learning model quality assurance. XAIport enables configurable XAI operations along with machine learning development. We quantify the operational costs of incorporating XAI with three cloud computer vision services on Microsoft Azure Cognitive Services, Google Cloud Vertex AI, and Amazon Rekognition. Our findings show comparable operational costs between XAI and traditional machine learning, with XAIport significantly improving both cloud AI model performance and explanation stability.
- Abstract(参考訳): 本稿では,説明の質,説明の要約は複数のXAIメソッド間で整合性を持つべきであること,アーキテクチャの適合性,XAIメソッドと説明すべきモデルの両方のアーキテクチャスタイルは,フレームワークと互換性がなければならないこと,構成可能な操作,XAIの説明は,機械学習操作と同じような操作性を持つこと,の3点に着目して,説明可能なAI(XAI)の早期導入を提案する。
したがって、AIモデルの説明は再現可能であるべきであり、信頼できるものにすべきである。
我々は、XAIマイクロサービスのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として、初期の説明を提供する。
XAIportは、機械学習開発とともに構成可能なXAI操作を可能にする。
XAIをMicrosoft Azure Cognitive Services、Google Cloud Vertex AI、Amazon Rekognitionの3つのクラウドコンピュータビジョンサービスに組み込むことの運用コストを定量化する。
XAIportは、クラウドAIモデルの性能と説明安定性の両方を大幅に改善する。
関連論文リスト
- An Open API Architecture to Discover the Trustworthy Explanation of Cloud AI Services [11.170826645382661]
この記事では、クラウドAIサービスのための機能コントリビューション説明を提供するために、オープンAPIベースの説明可能なAI(XAI)サービスの設計について説明する。
我々は、XAI操作をクラウドAIサービスアセスメントに統合するために、XAI操作がオープンAPIとしてアクセス可能であることを論じる。
論文 参考訳(メタデータ) (2024-11-05T16:52:22Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Extracting human interpretable structure-property relationships in
chemistry using XAI and large language models [0.4769602527256662]
本稿では,XAI手法と大規模言語モデル(LLM)を統合したXpertAIフレームワークを提案する。
以上の結果から,XpertAI は LLM と XAI ツールの強みを組み合わせ,具体的な,科学的,解釈可能な説明を生成することが示唆された。
論文 参考訳(メタデータ) (2023-11-07T15:02:32Z) - Strategies to exploit XAI to improve classification systems [0.0]
XAIは、AIモデルの意思決定プロセスに関する洞察を提供することを目的としている。
ほとんどのXAI文献は、AIシステムを説明する方法に焦点を当てているが、AIシステムを改善するためにXAIメソッドをどのように活用するかについては、あまり注目されていない。
論文 参考訳(メタデータ) (2023-06-09T10:38:26Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。