論文の概要: NICEST: Noisy Label Correction and Training for Robust Scene Graph
Generation
- arxiv url: http://arxiv.org/abs/2207.13316v1
- Date: Wed, 27 Jul 2022 06:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:28:45.627428
- Title: NICEST: Noisy Label Correction and Training for Robust Scene Graph
Generation
- Title(参考訳): NICEST:ロバストなシーングラフ生成のためのノイズラベル補正とトレーニング
- Authors: Lin Li, Long Chen, Hanrong Shi, Hanwang Zhang, Yi Yang, Wei Liu, and
Jun Xiao
- Abstract要約: 我々は,SGG:NICESTのための新しいNoIsyラベルCorrEction and Sample Training戦略を提案する。
NICEはまずノイズのあるサンプルを検出し、さらに高品質な述語ラベルを割り当てる。
NICESTは任意のSGGアーキテクチャにシームレスに組み込んで、さまざまな述語カテゴリのパフォーマンスを向上させることができる。
- 参考スコア(独自算出の注目度): 67.44191231323859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nearly all existing scene graph generation (SGG) models have overlooked the
ground-truth annotation qualities of mainstream SGG datasets, i.e., they
assume: 1) all the manually annotated positive samples are equally correct; 2)
all the un-annotated negative samples are absolutely background. In this paper,
we argue that neither of the assumptions applies to SGG: there are numerous
noisy ground-truth predicate labels that break these two assumptions and harm
the training of unbiased SGG models. To this end, we propose a novel NoIsy
label CorrEction and Sample Training strategy for SGG: NICEST. Specifically, it
consists of two parts: NICE and NIST, which rule out these noisy label issues
by generating high-quality samples and the effective training strategy,
respectively. NICE first detects noisy samples and then reassigns them more
high-quality soft predicate labels. NIST is a multi-teacher knowledge
distillation based training strategy, which enables the model to learn unbiased
fusion knowledge. And a dynamic trade-off weighting strategy in NIST is
designed to penalize the bias of different teachers. Due to the model-agnostic
nature of both NICE and NIST, our NICEST can be seamlessly incorporated into
any SGG architecture to boost its performance on different predicate
categories. In addition, to better evaluate the generalization of SGG models,
we further propose a new benchmark VG-OOD, by re-organizing the prevalent VG
dataset and deliberately making the predicate distributions of the training and
test sets as different as possible for each subject-object category pair. This
new benchmark helps disentangle the influence of subject-object category based
frequency biases. Extensive ablations and results on different backbones and
tasks have attested to the effectiveness and generalization ability of each
component of NICEST.
- Abstract(参考訳): ほぼ全ての既存のシーングラフ生成(SGG)モデルは、主流のSGGデータセットの地味なアノテーション品質を見落としている。
1) 手動でアノテートした正のサンプルはすべて等しく正しい。
2) 注釈なし陰性サンプルはすべて絶対的背景である。
本稿では,これら2つの仮定を破り,偏りのないSGGモデルのトレーニングを損なうような,ノイズの多い基礎構造予測ラベルが多数存在することを論じる。
そこで我々は,SGG:NICESTのためのNoIsyレーベルCorrEction and Sample Training戦略を提案する。
具体的には,NICEとNISTの2つの部分から構成され,高品質なサンプルを生成することで,ノイズの多いラベル問題を排除している。
NICEはまずノイズのあるサンプルを検出し、さらに高品質な述語ラベルを割り当てる。
NISTは多教師による知識蒸留に基づく訓練戦略であり、モデルが不偏の融合知識を学習できるようにする。
また、NISTのダイナミックなトレードオフ重み付け戦略は、異なる教師のバイアスを罰するように設計されている。
NICEとNISTの両方のモデルに依存しない性質のため、NICESTは任意のSGGアーキテクチャにシームレスに組み込んで、異なる述語カテゴリのパフォーマンスを向上させることができます。
さらに,SGGモデルの一般化をよりよく評価するために,先行するVGデータセットを再編成し,各対象カテゴリペアに対して,トレーニングとテストセットの述語分布を可能な限り異なるものにすることで,新たなベンチマークVG-OODを提案する。
このベンチマークは、対象物カテゴリーに基づく周波数バイアスの影響を解消するのに役立つ。
異なるバックボーンやタスクに対する広範囲な改善と結果は、NICESTの各コンポーネントの有効性と一般化能力に証明されている。
関連論文リスト
- TD^2-Net: Toward Denoising and Debiasing for Dynamic Scene Graph
Generation [76.24766055944554]
動的SGGのデノベーションとデボアシングを目的としたネットワークTD$2$-Netを導入する。
TD$2$-Netは、述語分類における平均リコール@10で、第2位の競争相手を12.7%上回っている。
論文 参考訳(メタデータ) (2024-01-23T04:17:42Z) - Decomposed Prototype Learning for Few-Shot Scene Graph Generation [28.796734816086065]
我々は、シーングラフ生成の新しい有望なタスク(SGG: few-shot SGG (FSSGG))に焦点を当てる。
FSSGGは、モデルが以前の知識を素早く伝達し、いくつかの例で新しい述語を認識することを奨励している。
本稿では,新しいDPL(Decomposed Prototype Learning)を提案する。
論文 参考訳(メタデータ) (2023-03-20T04:54:26Z) - Towards Open-vocabulary Scene Graph Generation with Prompt-based
Finetuning [84.39787427288525]
シーングラフ生成(SGG)は、画像内のオブジェクト間の視覚的関係を検出するための基本的なタスクである。
オープンボキャブラリシーングラフ生成は,モデルが一連のベースオブジェクトクラスでトレーニングされる,斬新で現実的で困難な設定である。
我々のメソッドは、既存のメソッドが処理できない、完全に見えないオブジェクトクラスに対する推論をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-17T09:05:38Z) - Label Semantic Knowledge Distillation for Unbiased Scene Graph
Generation [34.20922091969159]
未知のシーングラフ生成(SGG)のためのモデル非依存ラベル意味知識蒸留(LS-KD)を提案する。
LS-KDは、予測されたラベル意味分布(LSD)を元の1ホットターゲットラベルと融合することにより、各対象物に対してソフトラベルを動的に生成する。
論文 参考訳(メタデータ) (2022-08-07T16:19:19Z) - Adaptive Fine-Grained Predicates Learning for Scene Graph Generation [122.4588401267544]
一般的なシーングラフ生成(SGG)モデルは、頭部の述語を予測する傾向があり、再バランス戦略は尾のカテゴリを好む。
本稿では,SGGの難解な述語を識別することを目的とした適応的微粒述語学習(FGPL-A)を提案する。
提案したモデル非依存戦略は,VG-SGGおよびGQA-SGGデータセットのベンチマークモデルの性能を最大175%,Mean Recall@100では76%向上させ,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-11T03:37:57Z) - The Devil is in the Labels: Noisy Label Correction for Robust Scene
Graph Generation [33.45310571580091]
本稿では,未知のSGGモデルに対する新しいモデルに依存しないNoIsyラベルCorrEction戦略を提案する。
NICEはノイズの多いサンプルを検出するだけでなく、より高品質な述語ラベルを再割り当てすることもできる。
NICEは負のノイズサンプル検出(Neg-NSD)、正のNSD(Pos-NSD)、雑音サンプル補正(NSC)の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-06-07T05:03:57Z) - Fine-Grained Predicates Learning for Scene Graph Generation [155.48614435437355]
Fine-Grained Predicates Learningは、シーングラフ生成タスクにおいて、識別困難な述語間の差別化を目的としている。
本稿では,SGGモデルによる詳細な述語ペアの探索を支援するPredicate Latticeを提案する。
次に、カテゴリ識別損失とエンティティ識別損失を提案し、どちらも粒度の細かい述語の識別に寄与する。
論文 参考訳(メタデータ) (2022-04-06T06:20:09Z) - Not All Relations are Equal: Mining Informative Labels for Scene Graph
Generation [48.21846438269506]
シーングラフ生成(SGG)は、オブジェクトのペア間の多様な相互作用をキャプチャすることを目的としている。
既存のSGG法では、トレーニングデータに様々なバイアスがあるため、視覚的およびテキスト的相関に関する複雑な推論が得られない。
本稿では,その情報性に基づいて関係ラベルを利用するSGGトレーニングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-26T14:34:12Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。