論文の概要: Context-based Transfer and Efficient Iterative Learning for Unbiased
Scene Graph Generation
- arxiv url: http://arxiv.org/abs/2312.17425v1
- Date: Fri, 29 Dec 2023 01:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 14:04:03.304842
- Title: Context-based Transfer and Efficient Iterative Learning for Unbiased
Scene Graph Generation
- Title(参考訳): 非バイアスシーングラフ生成のためのコンテキストベース転送と効率的な反復学習
- Authors: Qishen Chen, Xinyu Lyu, Haonan Zhang, Pengpeng Zeng, Lianli Gao,
Jingkuan Song
- Abstract要約: CITransは、段階的に強化されたデータでSGGモデルを反復的に訓練する。
CRTは、詳細なデータ転送を達成するために、述語のセマンティック空間内で主観的対象制約を課す。
EILはモデルを反復的にトレーニングし、モデルの学習状態と整合した拡張ラベルを生成する。
- 参考スコア(独自算出の注目度): 93.98335200422274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unbiased Scene Graph Generation (USGG) aims to address biased predictions in
SGG. To that end, data transfer methods are designed to convert coarse-grained
predicates into fine-grained ones, mitigating imbalanced distribution. However,
them overlook contextual relevance between transferred labels and
subject-object pairs, such as unsuitability of 'eating' for 'woman-table'.
Furthermore, they typically involve a two-stage process with significant
computational costs, starting with pre-training a model for data transfer,
followed by training from scratch using transferred labels. Thus, we introduce
a plug-and-play method named CITrans, which iteratively trains SGG models with
progressively enhanced data. First, we introduce Context-Restricted Transfer
(CRT), which imposes subject-object constraints within predicates' semantic
space to achieve fine-grained data transfer. Subsequently, Efficient Iterative
Learning (EIL) iteratively trains models and progressively generates enhanced
labels which are consistent with model's learning state, thereby accelerating
the training process. Finally, extensive experiments show that CITrans achieves
state-of-the-art and results with high efficiency.
- Abstract(参考訳): アンバイアスドシーングラフ生成(USGG)は、SGGのバイアスド予測に対処することを目的としている。
この目的のために、データ転送法は、粗粒度述語を細粒度に変換し、不均衡分布を緩和するように設計されている。
しかし、「女性テーブル」の「食」が適さないなど、移動ラベルと対象物対の間の文脈的関連性を見落としている。
さらに、それらは通常、データ転送のモデルを事前トレーニングしてから、転送ラベルを使用してスクラッチからトレーニングすることから始まり、重要な計算コストを伴う2段階のプロセスを伴う。
そこで我々は,段階的に拡張されたデータを用いてSGGモデルを反復的に学習するCITransというプラグイン・アンド・プレイ方式を提案する。
まず,きめ細かなデータ転送を実現するために,述語意味空間内に主観オブジェクト制約を課すコンテキスト制限転送(crt)を導入する。
その後、効率的な反復学習(eil)が反復的にモデルを訓練し、モデルの学習状態と一致する拡張ラベルを生成し、トレーニングプロセスを加速する。
最後に、広範囲な実験によりCITransが最先端を実現し、高い効率で結果が得られた。
関連論文リスト
- Progressive Multi-Level Alignments for Semi-Supervised Domain Adaptation SAR Target Recognition Using Simulated Data [3.1951121258423334]
我々は、ソースドメインインスタンスを対応するプロトタイプに近づけるために、インスタンス-プロトタイプアライメント(AIPA)戦略を開発する。
また、ソースドメインインスタンスを対応するプロトタイプに近づけるための、インスタンス-プロトタイプアライメント(AIPA)戦略も開発しています。
論文 参考訳(メタデータ) (2024-11-07T13:53:13Z) - Fine-Grained Scene Graph Generation via Sample-Level Bias Prediction [12.319354506916547]
微粒なシーングラフ生成のためのサンプルレベルバイアス予測(SBP)手法を提案する。
まず、古典的なSGGモデルを訓練し、補正バイアスセットを構築する。
そこで我々は,BGAN(Bias-Oriented Generative Adversarial Network)を考案し,構築した補正バイアスを予測する。
論文 参考訳(メタデータ) (2024-07-27T13:49:06Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - DDGHM: Dual Dynamic Graph with Hybrid Metric Training for Cross-Domain
Sequential Recommendation [15.366783212837515]
Sequential Recommendation (SR) は、ユーザがアイテム間を移動する方法をモデル化することによって、ユーザの行動の進化パターンを特徴付ける。
この問題を解決するため、我々はクロスドメインシーケンスレコメンデーション(CDSR)に焦点を当てる。
本稿では,CDSR問題のための新しいフレームワークであるDDGHMを提案する。
論文 参考訳(メタデータ) (2022-09-21T07:53:06Z) - Adaptive Fine-Grained Predicates Learning for Scene Graph Generation [122.4588401267544]
一般的なシーングラフ生成(SGG)モデルは、頭部の述語を予測する傾向があり、再バランス戦略は尾のカテゴリを好む。
本稿では,SGGの難解な述語を識別することを目的とした適応的微粒述語学習(FGPL-A)を提案する。
提案したモデル非依存戦略は,VG-SGGおよびGQA-SGGデータセットのベンチマークモデルの性能を最大175%,Mean Recall@100では76%向上させ,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-11T03:37:57Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - PCPL: Predicate-Correlation Perception Learning for Unbiased Scene Graph
Generation [58.98802062945709]
本稿では,適切な損失重みを適応的に求めるための新しい述語相関知覚学習手法を提案する。
我々のPCPLフレームワークは、文脈特徴をよりよく抽出するグラフエンコーダモジュールも備えています。
論文 参考訳(メタデータ) (2020-09-02T08:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。