論文の概要: Analyzing the Quality Attributes of AI Vision Models in Open
Repositories Under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2401.12261v1
- Date: Mon, 22 Jan 2024 00:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:56:24.156303
- Title: Analyzing the Quality Attributes of AI Vision Models in Open
Repositories Under Adversarial Attacks
- Title(参考訳): 敵対的攻撃下でのオープンリポジトリにおけるAIビジョンモデルの品質属性の分析
- Authors: Zerui Wang, Yan Liu
- Abstract要約: 敵対的攻撃は、AIモデルの堅牢性と説明可能性に対する潜在的な脅威である。
XAIは、入力を近似したアルゴリズムをポストホック出力に適用し、貢献する特徴を識別する。
本稿では,下流評価タスクのための統合プロセスを提案する。
- 参考スコア(独自算出の注目度): 8.861368759724431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI models rapidly evolve, they are frequently released to open
repositories, such as HuggingFace. It is essential to perform quality assurance
validation on these models before integrating them into the production
development lifecycle. In addition to evaluating efficiency in terms of
balanced accuracy and computing costs, adversarial attacks are potential
threats to the robustness and explainability of AI models. Meanwhile, XAI
applies algorithms that approximate inputs to outputs post-hoc to identify the
contributing features. Adversarial perturbations may also degrade the utility
of XAI explanations that require further investigation. In this paper, we
present an integrated process designed for downstream evaluation tasks,
including validating AI model accuracy, evaluating robustness with benchmark
perturbations, comparing explanation utility, and assessing overhead. We
demonstrate an evaluation scenario involving six computer vision models, which
include CNN-based, Transformer-based, and hybrid architectures, three types of
perturbations, and five XAI methods, resulting in ninety unique combinations.
The process reveals the explanation utility among the XAI methods in terms of
the identified key areas responding to the adversarial perturbation. The
process produces aggregated results that illustrate multiple attributes of each
AI model.
- Abstract(参考訳): AIモデルが急速に進化するにつれて、HuggingFaceのようなオープンリポジトリに頻繁にリリースされる。
製品開発ライフサイクルに組み込む前に、これらのモデルの品質保証検証を実行することが不可欠です。
バランスの取れた精度と計算コストの観点から効率を評価することに加えて、敵攻撃はAIモデルの堅牢性と説明可能性に対する潜在的な脅威である。
一方、XAIは入力を近似したアルゴリズムをポストホック出力に適用し、貢献する特徴を特定する。
敵対的摂動は、さらなる調査を必要とするXAI説明の有用性を低下させる可能性がある。
本稿では,aiモデルの精度検証,ベンチマーク摂動によるロバスト性評価,説明ユーティリティの比較,オーバーヘッド評価など,下流評価タスク用に設計された統合プロセスを提案する。
CNNベース,トランスフォーマーベース,ハイブリッドアーキテクチャ,3種類の摂動,5種類のXAI手法を含む6種類のコンピュータビジョンモデルによる評価シナリオを実証し,90種類の一意な組み合わせを得た。
このプロセスは, 対向的摂動に応答する鍵領域を同定し, XAI法における説明の有用性を明らかにする。
このプロセスは、各aiモデルの複数の属性を示す集約結果を生成する。
関連論文リスト
- An Open API Architecture to Discover the Trustworthy Explanation of Cloud AI Services [11.170826645382661]
この記事では、クラウドAIサービスのための機能コントリビューション説明を提供するために、オープンAPIベースの説明可能なAI(XAI)サービスの設計について説明する。
我々は、XAI操作をクラウドAIサービスアセスメントに統合するために、XAI操作がオープンAPIとしてアクセス可能であることを論じる。
論文 参考訳(メタデータ) (2024-11-05T16:52:22Z) - Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - XAIport: A Service Framework for the Early Adoption of XAI in AI Model Development [7.196813936746303]
本稿では、説明可能なAI(XAI)の早期導入について、3つの特性に焦点をあてて提案する。
我々は、XAIのフレームワークであるXAIportをOpen APIにカプセル化し、モデル品質保証を学習するための観察として初期の説明を提供する。
論文 参考訳(メタデータ) (2024-03-25T15:22:06Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - Enabling AI-Generated Content (AIGC) Services in Wireless Edge Networks [68.00382171900975]
無線エッジネットワークでは、不正に生成されたコンテンツの送信はネットワークリソースを不要に消費する可能性がある。
我々は、AIGC-as-a-serviceの概念を示し、エッジネットワークにAをデプロイする際の課題について議論する。
最適なASP選択のための深層強化学習可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-09T09:30:23Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。