論文の概要: Model-agnostic explainable artificial intelligence for object detection
in image data
- arxiv url: http://arxiv.org/abs/2303.17249v2
- Date: Wed, 12 Apr 2023 13:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 17:32:35.095152
- Title: Model-agnostic explainable artificial intelligence for object detection
in image data
- Title(参考訳): 画像データにおける物体検出のためのモデル非依存説明可能な人工知能
- Authors: Milad Moradi, Ke Yan, David Colwell, Matthias Samwald, Rhona Asgari
- Abstract要約: ブラックボックスの説明は、内部にアクセスせずにAIシステムの決定を説明することを指す。
我々は,AIに基づく物体検出システムに新たなマスキングアプローチを採用することにより,マスキングによるブラックボックス物体検出記述を提案する。
BODEMは、オブジェクト検出器の動作を説明し、その脆弱性を明らかにするために効果的に使用できる。
- 参考スコア(独自算出の注目度): 10.166838247105607
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object detection is a fundamental task in computer vision, which has been
greatly progressed through developing large and intricate deep learning models.
However, the lack of transparency is a big challenge that may not allow the
widespread adoption of these models. Explainable artificial intelligence is a
field of research where methods are developed to help users understand the
behavior, decision logics, and vulnerabilities of AI-based systems. Black-box
explanation refers to explaining decisions of an AI system without having
access to its internals. In this paper, we design and implement a black-box
explanation method named Black-box Object Detection Explanation by Masking
(BODEM) through adopting a new masking approach for AI-based object detection
systems. We propose local and distant masking to generate multiple versions of
an input image. Local masks are used to disturb pixels within a target object
to figure out how the object detector reacts to these changes, while distant
masks are used to assess how the detection model's decisions are affected by
disturbing pixels outside the object. A saliency map is then created by
estimating the importance of pixels through measuring the difference between
the detection output before and after masking. Finally, a heatmap is created
that visualizes how important pixels within the input image are to the detected
objects. The experimentations on various object detection datasets and models
showed that BODEM can be effectively used to explain the behavior of object
detectors and reveal their vulnerabilities. This makes BODEM suitable for
explaining and validating AI based object detection systems in black-box
software testing scenarios. Furthermore, we conducted data augmentation
experiments that showed local masks produced by BODEM can be used for further
training the object detectors and improve their detection accuracy and
robustness.
- Abstract(参考訳): 物体検出はコンピュータビジョンの基本的な課題であり、大規模かつ複雑なディープラーニングモデルを開発することで大きく進歩してきた。
しかし、透明性の欠如は、これらのモデルの普及を許さない大きな課題である。
説明可能な人工知能は、ユーザーがaiベースのシステムの振る舞い、決定ロジック、脆弱性を理解するのに役立つ方法を開発する研究分野である。
ブラックボックスの説明は、内部にアクセスせずにAIシステムの決定を説明することを指す。
本稿では,AIを用いた物体検出システムに新たなマスキング手法を採用することにより,マスキングによるブラックボックスオブジェクト検出記述法(BODEM)の設計と実装を行う。
入力画像の複数バージョンを生成するために,局所マスキングと遠隔マスキングを提案する。
ローカルマスクは対象オブジェクト内のピクセルを妨害し、物体検出器がこれらの変化にどう反応するかを理解するために使用され、遠方のマスクは物体の外側のピクセルを乱すことによって検出モデルの判断がどのように影響を受けるかを評価するために使用される。
次に、マスキング前後の検出出力の差を測定することにより、画素の重要性を推定し、サリエンシマップを作成する。
最後に、検出されたオブジェクトに対する入力画像内の重要画素の可視化を行うヒートマップを作成する。
様々なオブジェクト検出データセットとモデルの実験により、BODEMはオブジェクト検出の振る舞いを効果的に説明し、その脆弱性を明らかにすることができることが示された。
これにより、BODEMはブラックボックスソフトウェアテストシナリオにおけるAIベースのオブジェクト検出システムの説明と検証に適している。
さらに,BODEMが生成する局所マスクを用いて物体検出器のさらなる訓練を行い,検出精度とロバスト性を向上させるデータ拡張実験を行った。
関連論文リスト
- On the Black-box Explainability of Object Detection Models for Safe and Trustworthy Industrial Applications [7.848637922112521]
本稿では,物体検出モデルに対するモデルに依存しないXAI手法に着目し,分割マスク生成を用いた形態的フラクタル摂動ピラミッド(P)の拡張であるD-Pを提案する。
これらの手法を実世界の産業用・ロボット用データセット上で評価し,マスク数,モデルサイズ,画像解像度などのパラメータが説明の質に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-10-28T13:28:05Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - An Efficient Ensemble Explainable AI (XAI) Approach for Morphed Face
Detection [1.2599533416395763]
深層学習予測モデル(EfficientNet-Grad1)のより包括的な視覚的説明を提供するために,Ensemble XAIという新しい視覚的説明手法を提案する。
実験は、Face Research Lab London Set、Wide Multi-Channel Presentation Attack (WMCA)、Makeup induced Face Spoofing (MIFS)の3つの公開データセットで実施された。
論文 参考訳(メタデータ) (2023-04-23T13:43:06Z) - Object Recognition in Different Lighting Conditions at Various Angles by
Deep Learning Method [0.0]
既存のコンピュータビジョンとオブジェクト検出方法は、ニューラルネットワークとディープラーニングに依存している。
本稿では,検出されたボックスの位置に基づいて,さまざまなオブジェクトの名称を分類することを目的とする。
このモデルの精度は,物体の比率やサンプル数に大きく影響されている。
論文 参考訳(メタデータ) (2022-10-18T06:23:26Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。