論文の概要: Contemplating real-world object classification
- arxiv url: http://arxiv.org/abs/2103.05137v1
- Date: Mon, 8 Mar 2021 23:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 05:34:23.981416
- Title: Contemplating real-world object classification
- Title(参考訳): 実世界のオブジェクト分類を考える
- Authors: Ali Borji
- Abstract要約: Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
- 参考スコア(独自算出の注目度): 53.10151901863263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep object recognition models have been very successful over benchmark
datasets such as ImageNet. How accurate and robust are they to distribution
shifts arising from natural and synthetic variations in datasets? Prior
research on this problem has primarily focused on ImageNet variations (e.g.,
ImageNetV2, ImageNet-A). To avoid potential inherited biases in these studies,
we take a different approach. Specifically, we reanalyze the ObjectNet dataset
recently proposed by Barbu et al. containing objects in daily life situations.
They showed a dramatic performance drop of the state of the art object
recognition models on this dataset. Due to the importance and implications of
their results regarding the generalization ability of deep models, we take a
second look at their analysis. We find that applying deep models to the
isolated objects, rather than the entire scene as is done in the original
paper, results in around 20-30% performance improvement. Relative to the
numbers reported in Barbu et al., around 10-15% of the performance loss is
recovered, without any test time data augmentation. Despite this gain, however,
we conclude that deep models still suffer drastically on the ObjectNet dataset.
We also investigate the robustness of models against synthetic image
perturbations such as geometric transformations (e.g., scale, rotation,
translation), natural image distortions (e.g., impulse noise, blur) as well as
adversarial attacks (e.g., FGSM and PGD-5). Our results indicate that limiting
the object area as much as possible (i.e., from the entire image to the
bounding box to the segmentation mask) leads to consistent improvement in
accuracy and robustness.
- Abstract(参考訳): ディープオブジェクト認識モデルはimagenetのようなベンチマークデータセットで非常に成功しています。
データセットの自然と合成のバリエーションから生じる分布の変化は、どの程度正確で堅牢か?
この問題に関する以前の研究は、主にImageNetのバリエーション(ImageNetV2、ImageNet-Aなど)に焦点を当てていた。
これらの研究で潜在的な偏りを避けるために、異なるアプローチを取る。
具体的には、Barbuらが最近提案したObjectNetデータセットを再分析します。
日常の状況に物を含むこと。
彼らはこのデータセット上のアートオブジェクト認識モデルの状態の劇的なパフォーマンス低下を示した。
深層モデルの一般化能力に関するそれらの結果の重要性と意義のために、我々は彼らの分析をもう一度見ます。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
Barbu et al.で報告された数字と比較して、パフォーマンス損失の約10-15%は、テスト時間データ増強なしで回復される。
しかし、この増加にもかかわらず、深いモデルはObjectNetデータセットに深刻な被害を被っていると結論付けます。
また、幾何学的変換(スケール、回転、翻訳など)、自然な画像歪み(インパルスノイズ、ボケなど)、敵対的な攻撃(FGSMやPGD-5など)などの合成画像の摂動に対するモデルの堅牢性についても調査する。
以上の結果から,オブジェクト領域の制限(画像全体から境界ボックスからセグメンテーションマスクまで)は,精度とロバスト性において一貫した改善をもたらすことが示唆された。
関連論文リスト
- ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Uncertainty in AI: Evaluating Deep Neural Networks on
Out-of-Distribution Images [0.0]
本稿では、摂動データを扱う際に、ResNet-50、VGG16、DenseNet121、AlexNet、GoogleNetなど様々なディープニューラルネットワークの不確実性について検討する。
ResNet-50はOODイメージの最も正確なシングルモデルであったが、アンサンブルはより良く、すべてのイメージを正しく分類した。
論文 参考訳(メタデータ) (2023-09-04T22:46:59Z) - ImageNet-E: Benchmarking Neural Network Robustness via Attribute Editing [45.14977000707886]
ImageNetにおける高い精度は、通常、異なる汚職に対してより堅牢性をもたらす。
我々は、背景、大きさ、位置、方向の制御によるオブジェクト編集のためのツールキットを作成する。
我々は、畳み込みニューラルネットワークと視覚変換器の両方を含む現在のディープラーニングモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-03-30T02:02:32Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Rethinking Natural Adversarial Examples for Classification Models [43.87819913022369]
ImageNet-Aは、自然対比例の有名なデータセットです。
オブジェクト検出技術を用いたImageNet-A例の背景影響を低減して仮説を検証した。
実験により,様々な分類モデルを用いた物体検出モデルは,その分類モデルよりも精度が高かった。
論文 参考訳(メタデータ) (2021-02-23T14:46:48Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - ObjectNet Dataset: Reanalysis and Correction [47.64219291655723]
最近、BarbuらはObjectNetというデータセットを導入した。
彼らはこのデータセット上で、アートオブジェクト認識モデルの状態の劇的なパフォーマンス低下を示した。
分離されたオブジェクトではなく、複数のオブジェクトを含むシーンにオブジェクト認識器を適用するという、彼らの仕事における大きな問題を強調します。
論文 参考訳(メタデータ) (2020-04-04T22:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。