論文の概要: Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2401.12261v4
- Date: Tue, 01 Oct 2024 03:41:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:33:04.008245
- Title: Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks
- Title(参考訳): 敵攻撃下でのオープンリポジトリモデル評価のためのクラウドベースのXAIサービス
- Authors: Zerui Wang, Yan Liu,
- Abstract要約: 計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
- 参考スコア(独自算出の注目度): 7.500941533148728
- License:
- Abstract: The opacity of AI models necessitates both validation and evaluation before their integration into services. To investigate these models, explainable AI (XAI) employs methods that elucidate the relationship between input features and output predictions. The operations of XAI extend beyond the execution of a single algorithm, involving a series of activities that include preprocessing data, adjusting XAI to align with model parameters, invoking the model to generate predictions, and summarizing the XAI results. Adversarial attacks are well-known threats that aim to mislead AI models. The assessment complexity, especially for XAI, increases when open-source AI models are subject to adversarial attacks, due to various combinations. To automate the numerous entities and tasks involved in XAI-based assessments, we propose a cloud-based service framework that encapsulates computing components as microservices and organizes assessment tasks into pipelines. The current XAI tools are not inherently service-oriented. This framework also integrates open XAI tool libraries as part of the pipeline composition. We demonstrate the application of XAI services for assessing five quality attributes of AI models: (1) computational cost, (2) performance, (3) robustness, (4) explanation deviation, and (5) explanation resilience across computer vision and tabular cases. The service framework generates aggregated analysis that showcases the quality attributes for more than a hundred combination scenarios.
- Abstract(参考訳): AIモデルの不透明さは、サービスに統合される前に、検証と評価の両方を必要とします。
これらのモデルを調べるために、説明可能なAI(XAI)は入力特徴と出力予測の関係を解明する手法を採用している。
XAIの操作は単一のアルゴリズムの実行を超えて拡張され、前処理データ、モデルパラメータとの整合性を調整するためにXAIを調整すること、予測を生成するためにモデルを呼び出すこと、XAI結果を要約することを含む一連のアクティビティが含まれる。
敵対的攻撃は、AIモデルを誤解させようとするよく知られた脅威である。
特にXAIでは、さまざまな組み合わせによって、オープンソースのAIモデルが敵の攻撃を受けると、評価の複雑さが増大する。
XAIベースのアセスメントに関わる多数のエンティティやタスクを自動化するために、コンピューティングコンポーネントをマイクロサービスとしてカプセル化し、アセスメントタスクをパイプラインに編成するクラウドベースのサービスフレームワークを提案する。
現在のXAIツールは本質的にサービス指向ではありません。
このフレームワークはパイプライン構成の一部としてオープンなXAIツールライブラリも統合している。
我々は,(1)計算コスト,(2)性能,(3)堅牢性,(4)説明偏差,(5)コンピュータビジョンと表ケース間の説明レジリエンスという,AIモデルの5つの品質特性を評価するためのXAIサービスの適用を実証する。
サービスフレームワークは、100以上の組み合わせシナリオの品質特性を示す集約分析を生成する。
関連論文リスト
- An Open API Architecture to Discover the Trustworthy Explanation of Cloud AI Services [11.170826645382661]
この記事では、クラウドAIサービスのための機能コントリビューション説明を提供するために、オープンAPIベースの説明可能なAI(XAI)サービスの設計について説明する。
我々は、XAI操作をクラウドAIサービスアセスメントに統合するために、XAI操作がオープンAPIとしてアクセス可能であることを論じる。
論文 参考訳(メタデータ) (2024-11-05T16:52:22Z) - Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development [7.196813936746303]
本稿では、説明可能なAI(XAI)の早期導入について、3つの特性に焦点をあてて提案する。
我々は、XAIのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として初期の説明を提供する。
論文 参考訳(メタデータ) (2024-03-25T15:22:06Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - Enabling AI-Generated Content (AIGC) Services in Wireless Edge Networks [68.00382171900975]
無線エッジネットワークでは、不正に生成されたコンテンツの送信はネットワークリソースを不要に消費する可能性がある。
我々は、AIGC-as-a-serviceの概念を示し、エッジネットワークにAをデプロイする際の課題について議論する。
最適なASP選択のための深層強化学習可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-09T09:30:23Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。