論文の概要: Scalable Explainability-as-a-Service (XaaS) for Edge AI Systems
- arxiv url: http://arxiv.org/abs/2602.04120v1
- Date: Wed, 04 Feb 2026 01:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.333389
- Title: Scalable Explainability-as-a-Service (XaaS) for Edge AI Systems
- Title(参考訳): エッジAIシステムのためのスケーラブルな説明可能性・アズ・ア・サービス(XaaS)
- Authors: Samaresh Kumar Singh, Joyjit Roy,
- Abstract要約: 本稿では,説明可能性を扱う分散アーキテクチャであるExplainability-as-a-Service (X)を提案する。
重要なイノベーションは、エッジデバイスが説明の要求、キャッシュ、検証を可能にする説明生成から推論を分離することです。
Xは3つの現実世界のデプロイメントで高い説明品質を維持しながら、レイテンシを38%削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though Explainable AI (XAI) has made significant advancements, its inclusion in edge and IoT systems is typically ad-hoc and inefficient. Most current methods are "coupled" in such a way that they generate explanations simultaneously with model inferences. As a result, these approaches incur redundant computation, high latency and poor scalability when deployed across heterogeneous sets of edge devices. In this work we propose Explainability-as-a-Service (XaaS), a distributed architecture for treating explainability as a first-class system service (as opposed to a model-specific feature). The key innovation in our proposed XaaS architecture is that it decouples inference from explanation generation allowing edge devices to request, cache and verify explanations subject to resource and latency constraints. To achieve this, we introduce three main innovations: (1) A distributed explanation cache with a semantic similarity based explanation retrieval method which significantly reduces redundant computation; (2) A lightweight verification protocol that ensures the fidelity of both cached and newly generated explanations; and (3) An adaptive explanation engine that chooses explanation methods based upon device capability and user requirement. We evaluated the performance of XaaS on three real-world edge-AI use cases: (i) manufacturing quality control; (ii) autonomous vehicle perception; and (iii) healthcare diagnostics. Experimental results show that XaaS reduces latency by 38\% while maintaining high explanation quality across three real-world deployments. Overall, this work enables the deployment of transparent and accountable AI across large scale, heterogeneous IoT systems, and bridges the gap between XAI research and edge-practicality.
- Abstract(参考訳): Explainable AI(XAI)は大きな進歩を遂げているが、エッジシステムとIoTシステムへの組み込みは通常、アドホックで非効率である。
現在のほとんどのメソッドはモデル推論と同時に説明を生成するような方法で"結合"されている。
結果として、これらのアプローチは、冗長な計算、高いレイテンシ、不均一なエッジデバイスの集合にデプロイする際のスケーラビリティの低下を招いた。
本研究では、(モデル固有の機能とは対照的に)第一級システムサービスとして説明可能性を扱う分散アーキテクチャである説明可能性・アズ・ア・サービス(XaaS)を提案する。
提案したXaaSアーキテクチャにおける重要なイノベーションは、エッジデバイスがリソースやレイテンシの制約を受ける説明を要求、キャッシュ、検証できるように、説明生成から推論を分離することです。
これを実現するために,(1) 冗長な計算を著しく削減する意味的類似性に基づく説明検索手法を用いた分散説明キャッシュ,(2) キャッシュと新たに生成された説明の両方の忠実度を保証する軽量検証プロトコル,(3) デバイス能力とユーザ要求に基づいて説明方法を選択する適応的説明エンジンを提案する。
実世界の3つのエッジAIユースケースにおけるXaaSの性能を評価した。
一 製造品質管理
(二)自動運転車の認識、及び
(3)医療診断。
実験の結果、XaaSは3つの現実世界のデプロイメントで高い説明品質を維持しながら、レイテンシを38\%削減することがわかった。
全体として、この作業は、大規模で異質なIoTシステムに透過的で説明可能なAIをデプロイし、XAI研究とエッジ実践のギャップを埋めることを可能にする。
関連論文リスト
- AI-NativeBench: An Open-Source White-Box Agentic Benchmark Suite for AI-Native Systems [52.65695508605237]
我々は、Model Context Protocol(MCP)とAgent-to-Agent(A2A)標準に基づいて、アプリケーション中心でホワイトボックスのAI-NativeベンチマークスイートであるAI-NativeBenchを紹介する。
エージェントスパンを分散トレース内の第一級市民として扱うことにより,本手法は,単純な機能以上の工学的特性の粒度解析を可能にする。
この研究は、モデル能力の測定から信頼性の高いAI-Nativeシステムへの移行を導く最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2026-01-14T11:32:07Z) - A2R: An Asymmetric Two-Stage Reasoning Framework for Parallel Reasoning [57.727084580884075]
モデルポテンシャルと実際の性能の間のギャップを埋めるために設計された非対称な2段階推論フレームワーク。
A2R-Efficientは、Qwen3-4BとQwen3-8Bシンセサイザーを組み合わせた「小型から大型」の派生型である。
その結果、A2Rはパフォーマンス・ブートスティングのフレームワークであるだけでなく、現実世界のアプリケーションに対して効率的かつ実用的なソリューションであることがわかった。
論文 参考訳(メタデータ) (2025-09-26T08:27:03Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - PXGen: A Post-hoc Explainable Method for Generative Models [0.5266869303483376]
生成型AI(XAI)は、生成型AI技術の責任ある開発と展開を保証する上で重要な役割を果たす。
近年の研究では、有能なXAI手法は、主に2つの重要な領域に焦点を当てた一連の基準に従うべきであることが強調されている。
生成モデルのためのポストホックな説明可能な手法であるPXGenを提案する。
論文 参考訳(メタデータ) (2025-01-21T02:10:50Z) - Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - Solving the enigma: Enhancing faithfulness and comprehensibility in explanations of deep networks [3.9584068556746246]
本稿では,説明の正確性と理解性の両方を最大化することに集中して,ディープネットワークの説明可能性を高めるために設計された新しいフレームワークを提案する。
我々のフレームワークは、複数の確立されたXAI手法の出力を統合し、"説明(explanation)"と呼ばれる非線形ニューラルネットワークモデルを活用し、統一的で最適な説明を構築する。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。