論文の概要: Predicting the Reliability of an Image Classifier under Image Distortion
- arxiv url: http://arxiv.org/abs/2412.16881v1
- Date: Sun, 22 Dec 2024 06:21:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:27.013954
- Title: Predicting the Reliability of an Image Classifier under Image Distortion
- Title(参考訳): 画像歪み下における画像分類器の信頼性予測
- Authors: Dang Nguyen, Sunil Gupta, Kien Do, Svetha Venkatesh,
- Abstract要約: 画像分類タスクでは、深層学習モデルは画像歪みに弱い。
品質管理のためには、画像分類器が歪みレベルで信頼できない/信頼できないかを予測することが重要である。
我々の解決策は、歪みレベルと「信頼できない」「信頼できない」ラベルからなるトレーニングセットを構築し、歪みレベルを分類するために機械学習予測モデル(歪み分類器と呼ばれる)を訓練することである。
- 参考スコア(独自算出の注目度): 48.866196348385
- License:
- Abstract: In image classification tasks, deep learning models are vulnerable to image distortions i.e. their accuracy significantly drops if the input images are distorted. An image-classifier is considered "reliable" if its accuracy on distorted images is above a user-specified threshold. For a quality control purpose, it is important to predict if the image-classifier is unreliable/reliable under a distortion level. In other words, we want to predict whether a distortion level makes the image-classifier "non-reliable" or "reliable". Our solution is to construct a training set consisting of distortion levels along with their "non-reliable" or "reliable" labels, and train a machine learning predictive model (called distortion-classifier) to classify unseen distortion levels. However, learning an effective distortion-classifier is a challenging problem as the training set is highly imbalanced. To address this problem, we propose two Gaussian process based methods to rebalance the training set. We conduct extensive experiments to show that our method significantly outperforms several baselines on six popular image datasets.
- Abstract(参考訳): 画像分類タスクでは、深層学習モデルは画像歪みに弱いため、入力画像が歪んだ場合、その精度は著しく低下する。
歪んだ画像の精度がユーザ指定閾値を超える場合、画像分類器は「信頼性」とみなす。
品質管理のためには、画像分類器が歪みレベルで信頼できない/信頼できないかを予測することが重要である。
言い換えれば、歪みレベルが画像分類器を「信頼できない」か「信頼できる」かを予測したい。
我々の解決策は、歪みレベルと「信頼できない」「信頼できない」ラベルからなるトレーニングセットを構築し、歪みレベルを分類するために機械学習予測モデル(歪み分類器と呼ばれる)を訓練することである。
しかし, 効果的な歪み分類器の学習は, トレーニングセットが高度に不均衡であるため, 難しい問題である。
この問題に対処するために、トレーニングセットを再バランスする2つのガウス過程に基づく手法を提案する。
提案手法は,6つの一般的な画像データセットに対して,いくつかのベースラインを著しく上回ることを示すため,広範囲な実験を行った。
関連論文リスト
- Critic Loss for Image Classification [0.6437284704257459]
CrtClは、ジェネレータ批判フレームワークにおける画像分類トレーニングを定式化する。
CrtClは、クロスエントロピー損失による負の副作用を軽減し、精度の学習損失法である。
低ラベルデータ構造におけるCrtClの有効性を,アクティブラーニングの文脈で検討した。
論文 参考訳(メタデータ) (2024-09-23T21:41:33Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - A Deep Ordinal Distortion Estimation Approach for Distortion Rectification [62.72089758481803]
より高精度なパラメータを効率良く得る新しい歪み補正手法を提案する。
本研究では, 局所言語関連推定ネットワークを設計し, 順序歪みを学習し, 現実的な歪み分布を近似する。
歪み情報の冗長性を考慮すると,本手法では歪み画像の一部のみを用いて順序方向の歪み推定を行う。
論文 参考訳(メタデータ) (2020-07-21T10:03:42Z) - Overinterpretation reveals image classification model pathologies [15.950659318117694]
人気のあるベンチマーク上の畳み込みニューラルネットワーク(CNN)は、意味論的に健全な特徴がなくても高い精度を示すことができるような、厄介な病理を示す。
我々は、CIFAR-10とImageNetでトレーニングされたニューラルネットワークが過剰解釈に悩まされていることを実証した。
これらのパターンは、現実のデプロイメントにおける潜在的なモデルの脆弱性を補うものだが、実際には、ベンチマークの統計的パターンとして、高いテスト精度を達成するのに十分である。
論文 参考訳(メタデータ) (2020-03-19T17:12:23Z) - Distortion Agnostic Deep Watermarking [21.493370728114815]
歪みに依存しない透かしのための新しい枠組みを提案する。
私たちのシステムの堅牢性は、敵対的なトレーニングとチャネルコーディングという2つのソースから得られます。
論文 参考訳(メタデータ) (2020-01-14T01:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。