論文の概要: Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2401.12261v3
- Date: Tue, 21 May 2024 20:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 11:36:31.451504
- Title: Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks
- Title(参考訳): 敵攻撃下でのオープンリポジトリモデル評価のためのクラウドベースのXAIサービス
- Authors: Zerui Wang, Yan Liu,
- Abstract要約: 計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
- 参考スコア(独自算出の注目度): 7.500941533148728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The opacity of AI models necessitates both validation and evaluation before their integration into services. To investigate these models, explainable AI (XAI) employs methods that elucidate the relationship between input features and output predictions. The operations of XAI extend beyond the execution of a single algorithm, involving a series of activities that include preprocessing data, adjusting XAI to align with model parameters, invoking the model to generate predictions, and summarizing the XAI results. Adversarial attacks are well-known threats that aim to mislead AI models. The assessment complexity, especially for XAI, increases when open-source AI models are subject to adversarial attacks, due to various combinations. To automate the numerous entities and tasks involved in XAI-based assessments, we propose a cloud-based service framework that encapsulates computing components as microservices and organizes assessment tasks into pipelines. The current XAI tools are not inherently service-oriented. This framework also integrates open XAI tool libraries as part of the pipeline composition. We demonstrate the application of XAI services for assessing five quality attributes of AI models: (1) computational cost, (2) performance, (3) robustness, (4) explanation deviation, and (5) explanation resilience across computer vision and tabular cases. The service framework generates aggregated analysis that showcases the quality attributes for more than a hundred combination scenarios.
- Abstract(参考訳): AIモデルの不透明さは、サービスに統合される前に、検証と評価の両方を必要とします。
これらのモデルを調べるために、説明可能なAI(XAI)は入力特徴と出力予測の関係を解明する手法を採用している。
XAIの操作は単一のアルゴリズムの実行を超えて拡張され、前処理データ、モデルパラメータとの整合性を調整するためにXAIを調整すること、予測を生成するためにモデルを呼び出すこと、XAI結果を要約することを含む一連のアクティビティが含まれる。
敵対的攻撃は、AIモデルを誤解させようとするよく知られた脅威である。
特にXAIでは、さまざまな組み合わせによって、オープンソースのAIモデルが敵の攻撃を受けると、評価の複雑さが増大する。
XAIベースのアセスメントに関わる多数のエンティティやタスクを自動化するために、コンピューティングコンポーネントをマイクロサービスとしてカプセル化し、アセスメントタスクをパイプラインに編成するクラウドベースのサービスフレームワークを提案する。
現在のXAIツールは本質的にサービス指向ではありません。
このフレームワークはパイプライン構成の一部としてオープンなXAIツールライブラリも統合している。
我々は,(1)計算コスト,(2)性能,(3)堅牢性,(4)説明偏差,(5)コンピュータビジョンと表ケース間の説明レジリエンスという,AIモデルの5つの品質特性を評価するためのXAIサービスの適用を実証する。
サービスフレームワークは、100以上の組み合わせシナリオの品質特性を示す集約分析を生成する。
関連論文リスト
- XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development [7.196813936746303]
本稿では、説明可能なAI(XAI)の早期導入について、3つの特性に焦点をあてて提案する。
我々は、XAIのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として初期の説明を提供する。
論文 参考訳(メタデータ) (2024-03-25T15:22:06Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Enabling AI-Generated Content (AIGC) Services in Wireless Edge Networks [68.00382171900975]
無線エッジネットワークでは、不正に生成されたコンテンツの送信はネットワークリソースを不要に消費する可能性がある。
我々は、AIGC-as-a-serviceの概念を示し、エッジネットワークにAをデプロイする際の課題について議論する。
最適なASP選択のための深層強化学習可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-09T09:30:23Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。