論文の概要: The Spotlight: A General Method for Discovering Systematic Errors in
Deep Learning Models
- arxiv url: http://arxiv.org/abs/2107.00758v1
- Date: Thu, 1 Jul 2021 21:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 13:01:49.928042
- Title: The Spotlight: A General Method for Discovering Systematic Errors in
Deep Learning Models
- Title(参考訳): 深層学習モデルにおける系統的誤り発見のための一般的な方法
- Authors: Greg d'Eon, Jason d'Eon, James R. Wright, Kevin Leyton-Brown
- Abstract要約: 本稿では,スポットライトと呼ばれる系統的誤りの発見手法を提案する。
同様の入力は、ニューラルネットワークの最終的な隠れ層に類似した表現を持つ傾向がある。
我々は、この表現空間上で「スポットライトを照らす」ことで、モデルが不十分な連続した領域を見つける。
- 参考スコア(独自算出の注目度): 18.209010694469647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning models often make systematic errors on rare subsets of
the data. However, such systematic errors can be difficult to identify, as
model performance can only be broken down across sensitive groups when these
groups are known and explicitly labelled. This paper introduces a method for
discovering systematic errors, which we call the spotlight. The key idea is
that similar inputs tend to have similar representations in the final hidden
layer of a neural network. We leverage this structure by "shining a spotlight"
on this representation space to find contiguous regions where the model
performs poorly. We show that the spotlight surfaces semantically meaningful
areas of weakness in a wide variety of model architectures, including image
classifiers, language models, and recommender systems.
- Abstract(参考訳): 教師付き学習モデルは、しばしばデータのまれな部分集合に体系的な誤りを犯す。
しかし、そのような体系的な誤りを識別することは困難であり、モデルの性能は、これらのグループが知られ、明示的にラベル付けされているときにのみ、センシティブなグループ間で分解される。
本稿では,スポットライトと呼ばれる系統的誤りの発見手法を提案する。
重要なアイデアは、同様の入力がニューラルネットワークの最終的な隠蔽層に類似した表現を持つ傾向があることだ。
この構造を,この表現空間上で"スポットライトを照らす"ことで,モデルの性能の悪い連続した領域を見つける。
画像分類器,言語モデル,レコメンダシステムなど,さまざまなモデルアーキテクチャにおいて,スポットライトは意味的に意味のある弱点の領域であることを示す。
関連論文リスト
- Automatic Discovery and Assessment of Interpretable Systematic Errors in Semantic Segmentation [0.5242869847419834]
本稿では,セグメンテーションモデルにおける体系的誤りを発見するための新しい手法を提案する。
マルチモーダル・ファンデーション・モデルを用いてエラーを検索し、誤った性質とともに概念的リンクを用いてこれらのエラーの体系的性質を研究する。
我々の研究は、これまでセマンティックセグメンテーションで過小評価されてきたモデル分析と介入への道を開く。
論文 参考訳(メタデータ) (2024-11-16T17:31:37Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Discovering Bugs in Vision Models using Off-the-shelf Image Generation
and Captioning [25.88974494276895]
この研究は、オフザシェルフ、大規模、画像からテキストへ、そしてテキストから画像へのモデルがどのように活用され、自動的に失敗を見つけるかを示す。
本質的には、条件付きテキスト・ツー・イメージ生成モデルを使用して、大量の合成的かつ現実的な入力を生成する。
論文 参考訳(メタデータ) (2022-08-18T13:49:10Z) - Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey [1.5469452301122175]
ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測の豊富な部分に依存します。
ラベル付きデータ観測を収集することは高価であり、ディープラーニングモデルの使用は理想的ではない。
多くの状況では、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットと非ラベル付きデータセットの間にかなりの分散ミスマッチが発生するリスクが生じる。
論文 参考訳(メタデータ) (2022-03-01T02:46:00Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。