論文の概要: Causality-Driven Audits of Model Robustness
- arxiv url: http://arxiv.org/abs/2410.23494v1
- Date: Wed, 30 Oct 2024 22:57:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:38.250405
- Title: Causality-Driven Audits of Model Robustness
- Title(参考訳): モデルロバストネスの因果性駆動型聴取
- Authors: Nathan Drenkow, Chris Ribaudo, Mathias Unberath,
- Abstract要約: ディープニューラルネットワーク(DNN)のロバストネス監査は、現実の状況に挑戦するモデル感度を明らかにする手段を提供する。
複雑な歪みを引き起こす撮像過程の因子に対するDNN感度を測定するために因果推論を用いた新たなロバストネス監査法を提案する。
- 参考スコア(独自算出の注目度): 7.01085327371458
- License:
- Abstract: Robustness audits of deep neural networks (DNN) provide a means to uncover model sensitivities to the challenging real-world imaging conditions that significantly degrade DNN performance in-the-wild. Such conditions are often the result of the compounding of multiple factors inherent to the environment, sensor, or processing pipeline and may lead to complex image distortions that are not easily categorized. When robustness audits are limited to a set of pre-determined imaging effects or distortions, the results cannot be (easily) transferred to real-world conditions where image corruptions may be more complex or nuanced. To address this challenge, we present a new alternative robustness auditing method that uses causal inference to measure DNN sensitivities to the factors of the imaging process that cause complex distortions. Our approach uses causal models to explicitly encode assumptions about the domain-relevant factors and their interactions. Then, through extensive experiments on natural and rendered images across multiple vision tasks, we show that our approach reliably estimates causal effects of each factor on DNN performance using observational domain data. These causal effects directly tie DNN sensitivities to observable properties of the imaging pipeline in the domain of interest towards reducing the risk of unexpected DNN failures when deployed in that domain.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のロバストネス監査は、DNNのパフォーマンスを大幅に低下させる挑戦的な実世界の撮像条件に対するモデル感度を明らかにする手段を提供する。
このような条件は、環境、センサー、または処理パイプラインに固有の複数の要因の合成の結果であり、容易に分類できない複雑な画像歪みを引き起こすことがある。
堅牢性監査が事前に決定された画像効果や歪みのセットに制限されている場合、画像の破損がより複雑またはニュアンスのある現実の状況に(容易に)移行することはできない。
この課題に対処するために、因果推論を用いて、複雑な歪みを引き起こす撮像過程の要因に対するDNN感度を測定する新たなロバストネス監査手法を提案する。
我々の手法は因果モデルを用いて、ドメイン関連因子とその相互作用に関する仮定を明示的にエンコードする。
そこで本研究では,複数の視覚課題にまたがる自然な画像とレンダリング画像の広範な実験を通じて,各因子がDNN性能に与える影響を,観測領域データを用いて確実に推定することを示した。
これらの因果効果は、DNNの感度を直接、関心領域における撮像パイプラインの観測可能な特性に結び付け、その領域に展開する際の予期せぬDNN障害のリスクを低減する。
関連論文リスト
- Beyond Pruning Criteria: The Dominant Role of Fine-Tuning and Adaptive Ratios in Neural Network Robustness [7.742297876120561]
ディープニューラルネットワーク(DNN)は、画像認識や自然言語処理といったタスクに優れています。
従来のプルーニング手法は、微妙な摂動に耐えるネットワークの能力を損なう。
本稿では,プライドネットワークの性能決定要因として,従来の重み付け重み付けの重視に挑戦する。
論文 参考訳(メタデータ) (2024-10-19T18:35:52Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - DeepCert: Verification of Contextually Relevant Robustness for Neural
Network Image Classifiers [16.893762648621266]
我々はディープニューラルネットワーク(DNN)画像分類器の頑健さを文脈的に関連する摂動に検証するためのツール支援のDeepCertを紹介する。
論文 参考訳(メタデータ) (2021-03-02T10:41:16Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Enhancing Perceptual Loss with Adversarial Feature Matching for
Super-Resolution [5.258555266148511]
単一画像超解法 (SISR) は不確定な数の有効解を持つ不確定問題である。
これらのパターンアーティファクトの根本原因は、知覚的損失の事前学習目標と超解答目標とのミスマッチに遡ることができる。
論文 参考訳(メタデータ) (2020-05-15T12:36:54Z) - Towards Robust Classification with Image Quality Assessment [0.9213700601337386]
ディープ畳み込みニューラルネットワーク(DCNN)は、敵対的な例に対して脆弱であり、知覚品質や画像の取得条件に敏感である。
本稿では,敵対的操作と画像品質の関連性について検討し,保護機構を提案する。
本手法は,DCCNを誘導する入力画像を検出するために,画像品質評価と知識蒸留を組み合わせる。
論文 参考訳(メタデータ) (2020-04-14T03:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。