論文の概要: Peer Learning for Unbiased Scene Graph Generation
- arxiv url: http://arxiv.org/abs/2301.00146v1
- Date: Sat, 31 Dec 2022 07:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:01:54.992023
- Title: Peer Learning for Unbiased Scene Graph Generation
- Title(参考訳): あいまいなシーングラフ生成のためのピアラーニング
- Authors: Liguang Zhou, Junjie Hu, Yuhongze Zhou, Tin Lun Lam, Yangsheng Xu
- Abstract要約: 我々は、バイアス付きシーングラフ生成(SGG)の問題に対処するピアラーニングと呼ばれる新しいフレームワークを提案する。
このフレームワークは、予測サンプリングとコンセンサス投票(PSCV)を使用して、異なるピアが互いに学び合うように促している。
我々は,bf31.6の平均を達成し,SGClsタスクに新たな最先端技術(SOTA)を確立した。
- 参考スコア(独自算出の注目度): 16.69329808479805
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a novel framework dubbed peer learning to deal with
the problem of biased scene graph generation (SGG). This framework uses
predicate sampling and consensus voting (PSCV) to encourage different peers to
learn from each other, improving model diversity and mitigating bias in SGG. To
address the heavily long-tailed distribution of predicate classes, we propose
to use predicate sampling to divide and conquer this issue. As a result, the
model is less biased and makes more balanced predicate predictions.
Specifically, one peer may not be sufficiently diverse to discriminate between
different levels of predicate distributions. Therefore, we sample the data
distribution based on frequency of predicates into sub-distributions, selecting
head, body, and tail classes to combine and feed to different peers as
complementary predicate knowledge during the training process. The
complementary predicate knowledge of these peers is then ensembled utilizing a
consensus voting strategy, which simulates a civilized voting process in our
society that emphasizes the majority opinion and diminishes the minority
opinion. This approach ensures that the learned representations of each peer
are optimally adapted to the various data distributions. Extensive experiments
on the Visual Genome dataset demonstrate that PSCV outperforms previous
methods. We have established a new state-of-the-art (SOTA) on the SGCls task by
achieving a mean of \textbf{31.6}.
- Abstract(参考訳): 本稿では,バイアス付きシーングラフ生成(sgg)の問題に対処するために,ピアラーニングと呼ばれる新しいフレームワークを提案する。
このフレームワークは、述語サンプリングとコンセンサス投票(PSCV)を使用して、異なるピアが互いに学び、モデルの多様性を改善し、SGGのバイアスを軽減する。
述語クラスの長い分布に対処するために、述語サンプリングを用いてこの問題を分割し、克服することを提案する。
その結果、モデルはバイアスが少なくなり、よりバランスの取れた述語予測ができる。
特に、あるピアは、異なるレベルの述語分布を区別するのに十分な多様性がないかもしれない。
そこで我々は,述語頻度に基づくデータ分布をサブディストリビューションに分類し,頭,体,尾のクラスを選択して,学習過程における相補的な述語知識として,異なるピアに合成・供給する。
これらの仲間の補完的な述語的知識は、多数意見を強調し、少数意見を減らす社会における文明的な投票過程をシミュレートする合意投票戦略を利用して収集される。
このアプローチは、各ピアの学習された表現が、様々なデータ分布に最適に適合することを保証する。
Visual Genomeデータセットの大規模な実験は、PSCVが以前の方法より優れていることを示している。
我々は, SGCls タスク上で, \textbf{31.6} の平均を達成することによって, 新たな最先端(SOTA)を確立した。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Panoptic Scene Graph Generation with Semantics-Prototype Learning [23.759498629378772]
Panoptic Scene Graph Generation (PSG)は、オブジェクトを解析し、それらの関係(述語)を予測し、人間の言語と視覚シーンを結びつける。
アノテーションの言語選好と述語間の意味的な重複は、偏りのある述語アノテーションにつながる。
そこで我々はADTransという新しいフレームワークを提案し、バイアス付き述語アノテーションを情報化と統一化に適応的に転送する。
論文 参考訳(メタデータ) (2023-07-28T14:04:06Z) - Unbiased Scene Graph Generation using Predicate Similarities [7.9112365100345965]
シーングラフは、画像に示されるオブジェクト間の関係のグラフィカル表現としてコンピュータビジョンに広く応用されている。
これらの応用は、長い尾の述語分布に起因する偏りのある訓練のため、まだ開発段階に達していない。
同様の述語群に対して,プロセスをいくつかのきめ細かい分類器に分割する新しい分類法を提案する。
Visual Genomeデータセットの広範な実験結果から,提案手法と既存のデバイアス手法を組み合わせることで,SGCls/SGDetタスクに挑戦する尾述語の性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-10-03T13:28:01Z) - CAME: Context-aware Mixture-of-Experts for Unbiased Scene Graph
Generation [10.724516317292926]
本稿では,CAME(Context-Aware Mixture-of-Experts)と呼ばれるシンプルな手法を提案する。
我々は、Visual Genomeデータセットの3つのタスクについて広範囲に実験を行い、従来の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-15T10:39:55Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - PCPL: Predicate-Correlation Perception Learning for Unbiased Scene Graph
Generation [58.98802062945709]
本稿では,適切な損失重みを適応的に求めるための新しい述語相関知覚学習手法を提案する。
我々のPCPLフレームワークは、文脈特徴をよりよく抽出するグラフエンコーダモジュールも備えています。
論文 参考訳(メタデータ) (2020-09-02T08:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。