論文の概要: Missingness Bias in Model Debugging
- arxiv url: http://arxiv.org/abs/2204.08945v1
- Date: Tue, 19 Apr 2022 15:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 13:12:44.782706
- Title: Missingness Bias in Model Debugging
- Title(参考訳): モデルデバッグにおける欠如バイアス
- Authors: Saachi Jain, Hadi Salman, Eric Wong, Pengchuan Zhang, Vibhav Vineet,
Sai Vemprala, Aleksander Madry
- Abstract要約: トランスフォーマーベースのアーキテクチャは、より自然な欠如の実装を可能にしていることを示す。
私たちのコードはhttps://github.com/madrylab/missingness.comで利用可能です。
- 参考スコア(独自算出の注目度): 89.1811879940689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Missingness, or the absence of features from an input, is a concept
fundamental to many model debugging tools. However, in computer vision, pixels
cannot simply be removed from an image. One thus tends to resort to heuristics
such as blacking out pixels, which may in turn introduce bias into the
debugging process. We study such biases and, in particular, show how
transformer-based architectures can enable a more natural implementation of
missingness, which side-steps these issues and improves the reliability of
model debugging in practice. Our code is available at
https://github.com/madrylab/missingness
- Abstract(参考訳): 欠如、あるいは入力からの機能の欠如は、多くのモデルデバッグツールの基本的な概念である。
しかし、コンピュータビジョンでは、ピクセルを単に画像から取り除くことはできない。
したがって、ピクセルを黒くするといったヒューリスティックに頼る傾向があり、これはデバッグプロセスにバイアスをもたらす可能性がある。
このようなバイアスを調査し,特にトランスフォーマティブベースのアーキテクチャが欠如をより自然な実装を可能にしていることを示すことで,これらの問題を回避し,実際にモデルデバッグの信頼性を向上させる。
私たちのコードはhttps://github.com/madrylab/missingnessで利用可能です。
関連論文リスト
- How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Uncertainty Quantification via Neural Posterior Principal Components [26.26693707762823]
不確実性定量化は、画像復元モデルの安全クリティカルドメインへの展開に不可欠である。
本稿では,入力画像の後方分布のPCをニューラルネットワークの単一前方通過で予測する手法を提案する。
提案手法は, インスタンス適応型不確実性方向を確実に伝達し, 後部サンプリングに匹敵する不確実性定量化を実現する。
論文 参考訳(メタデータ) (2023-09-27T09:51:29Z) - ImageNet-E: Benchmarking Neural Network Robustness via Attribute Editing [45.14977000707886]
ImageNetにおける高い精度は、通常、異なる汚職に対してより堅牢性をもたらす。
我々は、背景、大きさ、位置、方向の制御によるオブジェクト編集のためのツールキットを作成する。
我々は、畳み込みニューラルネットワークと視覚変換器の両方を含む現在のディープラーニングモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-03-30T02:02:32Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - DirectDebug: Automated Testing and Debugging of Feature Models [55.41644538483948]
変数モデル(例えば、特徴モデル)は、ソフトウェアアーティファクトの変数と共通性を表現する一般的な方法である。
複雑でしばしば大規模な機能モデルは欠陥になりうる、すなわち、ソフトウェアアーチファクトの期待される変動特性を表現しない。
論文 参考訳(メタデータ) (2021-02-11T11:22:20Z) - Noise-Equipped Convolutional Neural Networks [15.297063646935078]
Convolutional Neural Network (CNN)は、画像合成および翻訳タスクに広く採用されています。
CNNモデルにフラットな入力が与えられると、畳み込みカーネルの空間的共有性により、変換はスケール操作に分解される。
論文 参考訳(メタデータ) (2020-12-09T09:01:45Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - Overinterpretation reveals image classification model pathologies [15.950659318117694]
人気のあるベンチマーク上の畳み込みニューラルネットワーク(CNN)は、意味論的に健全な特徴がなくても高い精度を示すことができるような、厄介な病理を示す。
我々は、CIFAR-10とImageNetでトレーニングされたニューラルネットワークが過剰解釈に悩まされていることを実証した。
これらのパターンは、現実のデプロイメントにおける潜在的なモデルの脆弱性を補うものだが、実際には、ベンチマークの統計的パターンとして、高いテスト精度を達成するのに十分である。
論文 参考訳(メタデータ) (2020-03-19T17:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。