論文の概要: Unbiased Scene Graph Generation using Predicate Similarities
- arxiv url: http://arxiv.org/abs/2210.00920v1
- Date: Mon, 3 Oct 2022 13:28:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:51:17.921450
- Title: Unbiased Scene Graph Generation using Predicate Similarities
- Title(参考訳): 述語類似性を用いた不偏形シーングラフ生成
- Authors: Misaki Ohashi, Yusuke Matsui
- Abstract要約: シーングラフは、画像に示されるオブジェクト間の関係のグラフィカル表現としてコンピュータビジョンに広く応用されている。
これらの応用は、長い尾の述語分布に起因する偏りのある訓練のため、まだ開発段階に達していない。
同様の述語群に対して,プロセスをいくつかのきめ細かい分類器に分割する新しい分類法を提案する。
Visual Genomeデータセットの広範な実験結果から,提案手法と既存のデバイアス手法を組み合わせることで,SGCls/SGDetタスクに挑戦する尾述語の性能が大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 7.9112365100345965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene Graphs are widely applied in computer vision as a graphical
representation of relationships between objects shown in images. However, these
applications have not yet reached a practical stage of development owing to
biased training caused by long-tailed predicate distributions. In recent years,
many studies have tackled this problem. In contrast, relatively few works have
considered predicate similarities as a unique dataset feature which also leads
to the biased prediction. Due to the feature, infrequent predicates (e.g.,
parked on, covered in) are easily misclassified as closely-related frequent
predicates (e.g., on, in). Utilizing predicate similarities, we propose a new
classification scheme that branches the process to several fine-grained
classifiers for similar predicate groups. The classifiers aim to capture the
differences among similar predicates in detail. We also introduce the idea of
transfer learning to enhance the features for the predicates which lack
sufficient training samples to learn the descriptive representations. The
results of extensive experiments on the Visual Genome dataset show that the
combination of our method and an existing debiasing approach greatly improves
performance on tail predicates in challenging SGCls/SGDet tasks. Nonetheless,
the overall performance of the proposed approach does not reach that of the
current state of the art, so further analysis remains necessary as future work.
- Abstract(参考訳): シーングラフは、画像に示されるオブジェクト間の関係のグラフィカル表現としてコンピュータビジョンに広く応用されている。
しかし,これらの応用は,長尾述語分布による偏りのある訓練により,まだ開発段階に達していない。
近年、多くの研究がこの問題に取り組んでいる。
対照的に、述語類似性を独自のデータセット機能として考慮している研究は比較的少ない。
この特徴により、頻繁な述語(例えば、駐車し、覆われている)は、近縁な頻繁な述語(例えば、オン)として容易に誤分類される。
述語類似性を利用して,類似述語群に対して複数の細粒度分類器にプロセスを分岐する新しい分類法を提案する。
分類器は、類似の述語間の差異を詳細に捉えることを目的としている。
また,記述表現を学ぶための十分なトレーニングサンプルが不足している述語の特徴を強化するために,転送学習という概念を導入する。
Visual Genomeデータセットの広範な実験結果から,提案手法と既存のデバイアス手法を組み合わせることで,SGCls/SGDetタスクに挑戦する尾述語の性能が大幅に向上することが示された。
それにもかかわらず、提案手法の全体的な性能は現在の芸術水準に達しないため、今後の研究としてさらなる分析が必要である。
関連論文リスト
- Ensemble Predicate Decoding for Unbiased Scene Graph Generation [40.01591739856469]
シーングラフ生成(SGG)は、与えられたシナリオの意味情報をキャプチャする包括的なグラフィカル表現を生成することを目的としている。
よりきめ細かい述語を予測する際のモデルの性能は、有意な述語バイアスによって妨げられる。
本稿では,複数のデコーダを用いて非バイアスなシーングラフ生成を実現するEnsemble Predicate Decoding (EPD)を提案する。
論文 参考訳(メタデータ) (2024-08-26T11:24:13Z) - Panoptic Scene Graph Generation with Semantics-Prototype Learning [23.759498629378772]
Panoptic Scene Graph Generation (PSG)は、オブジェクトを解析し、それらの関係(述語)を予測し、人間の言語と視覚シーンを結びつける。
アノテーションの言語選好と述語間の意味的な重複は、偏りのある述語アノテーションにつながる。
そこで我々はADTransという新しいフレームワークを提案し、バイアス付き述語アノテーションを情報化と統一化に適応的に転送する。
論文 参考訳(メタデータ) (2023-07-28T14:04:06Z) - Multi-Label Meta Weighting for Long-Tailed Dynamic Scene Graph
Generation [55.429541407920304]
対象と対象のペア間の述語認識は、本質的に不均衡であり、複数ラベルである。
最近の最先端の手法は、主に最も頻繁に発生する述語クラスに焦点を当てている。
偏りのある述語分布を扱うために,多言語メタラーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-16T18:14:23Z) - Visually-Prompted Language Model for Fine-Grained Scene Graph Generation
in an Open World [67.03968403301143]
SGG(Scene Graph Generation)は、視覚理解のための画像中の主観的、述語的、対象的な関係を抽出することを目的としている。
既存の再バランス戦略は、以前のルールを通じてそれを処理しようとするが、まだ事前に定義された条件に制限されている。
そこで我々は,多種多様な粒度の述語を生成するために,視覚的にプロンプトされた言語モデルを学習するクロスモーダルプレディケイトブースティング(CaCao)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-23T13:06:38Z) - Decomposed Prototype Learning for Few-Shot Scene Graph Generation [28.796734816086065]
我々は、シーングラフ生成の新しい有望なタスク(SGG: few-shot SGG (FSSGG))に焦点を当てる。
FSSGGは、モデルが以前の知識を素早く伝達し、いくつかの例で新しい述語を認識することを奨励している。
本稿では,新しいDPL(Decomposed Prototype Learning)を提案する。
論文 参考訳(メタデータ) (2023-03-20T04:54:26Z) - Peer Learning for Unbiased Scene Graph Generation [16.69329808479805]
我々は、バイアス付きシーングラフ生成(SGG)の問題に対処するピアラーニングと呼ばれる新しいフレームワークを提案する。
このフレームワークは、予測サンプリングとコンセンサス投票(PSCV)を使用して、異なるピアが互いに学び合うように促している。
我々は,bf31.6の平均を達成し,SGClsタスクに新たな最先端技術(SOTA)を確立した。
論文 参考訳(メタデータ) (2022-12-31T07:56:35Z) - CAME: Context-aware Mixture-of-Experts for Unbiased Scene Graph
Generation [10.724516317292926]
本稿では,CAME(Context-Aware Mixture-of-Experts)と呼ばれるシンプルな手法を提案する。
我々は、Visual Genomeデータセットの3つのタスクについて広範囲に実験を行い、従来の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-15T10:39:55Z) - Adaptive Fine-Grained Predicates Learning for Scene Graph Generation [122.4588401267544]
一般的なシーングラフ生成(SGG)モデルは、頭部の述語を予測する傾向があり、再バランス戦略は尾のカテゴリを好む。
本稿では,SGGの難解な述語を識別することを目的とした適応的微粒述語学習(FGPL-A)を提案する。
提案したモデル非依存戦略は,VG-SGGおよびGQA-SGGデータセットのベンチマークモデルの性能を最大175%,Mean Recall@100では76%向上させ,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-11T03:37:57Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - PCPL: Predicate-Correlation Perception Learning for Unbiased Scene Graph
Generation [58.98802062945709]
本稿では,適切な損失重みを適応的に求めるための新しい述語相関知覚学習手法を提案する。
我々のPCPLフレームワークは、文脈特徴をよりよく抽出するグラフエンコーダモジュールも備えています。
論文 参考訳(メタデータ) (2020-09-02T08:30:09Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。