論文の概要: Context-based Transfer and Efficient Iterative Learning for Unbiased
Scene Graph Generation
- arxiv url: http://arxiv.org/abs/2312.17425v1
- Date: Fri, 29 Dec 2023 01:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 14:04:03.304842
- Title: Context-based Transfer and Efficient Iterative Learning for Unbiased
Scene Graph Generation
- Title(参考訳): 非バイアスシーングラフ生成のためのコンテキストベース転送と効率的な反復学習
- Authors: Qishen Chen, Xinyu Lyu, Haonan Zhang, Pengpeng Zeng, Lianli Gao,
Jingkuan Song
- Abstract要約: CITransは、段階的に強化されたデータでSGGモデルを反復的に訓練する。
CRTは、詳細なデータ転送を達成するために、述語のセマンティック空間内で主観的対象制約を課す。
EILはモデルを反復的にトレーニングし、モデルの学習状態と整合した拡張ラベルを生成する。
- 参考スコア(独自算出の注目度): 93.98335200422274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unbiased Scene Graph Generation (USGG) aims to address biased predictions in
SGG. To that end, data transfer methods are designed to convert coarse-grained
predicates into fine-grained ones, mitigating imbalanced distribution. However,
them overlook contextual relevance between transferred labels and
subject-object pairs, such as unsuitability of 'eating' for 'woman-table'.
Furthermore, they typically involve a two-stage process with significant
computational costs, starting with pre-training a model for data transfer,
followed by training from scratch using transferred labels. Thus, we introduce
a plug-and-play method named CITrans, which iteratively trains SGG models with
progressively enhanced data. First, we introduce Context-Restricted Transfer
(CRT), which imposes subject-object constraints within predicates' semantic
space to achieve fine-grained data transfer. Subsequently, Efficient Iterative
Learning (EIL) iteratively trains models and progressively generates enhanced
labels which are consistent with model's learning state, thereby accelerating
the training process. Finally, extensive experiments show that CITrans achieves
state-of-the-art and results with high efficiency.
- Abstract(参考訳): アンバイアスドシーングラフ生成(USGG)は、SGGのバイアスド予測に対処することを目的としている。
この目的のために、データ転送法は、粗粒度述語を細粒度に変換し、不均衡分布を緩和するように設計されている。
しかし、「女性テーブル」の「食」が適さないなど、移動ラベルと対象物対の間の文脈的関連性を見落としている。
さらに、それらは通常、データ転送のモデルを事前トレーニングしてから、転送ラベルを使用してスクラッチからトレーニングすることから始まり、重要な計算コストを伴う2段階のプロセスを伴う。
そこで我々は,段階的に拡張されたデータを用いてSGGモデルを反復的に学習するCITransというプラグイン・アンド・プレイ方式を提案する。
まず,きめ細かなデータ転送を実現するために,述語意味空間内に主観オブジェクト制約を課すコンテキスト制限転送(crt)を導入する。
その後、効率的な反復学習(eil)が反復的にモデルを訓練し、モデルの学習状態と一致する拡張ラベルを生成し、トレーニングプロセスを加速する。
最後に、広範囲な実験によりCITransが最先端を実現し、高い効率で結果が得られた。
関連論文リスト
- Predicate Classification Using Optimal Transport Loss in Scene Graph
Generation [7.056402944499977]
本稿では,2つの確率分布を比較する尺度として最適輸送を用いたシーングラフを生成する手法を提案する。
実験により,提案手法はRecall@50,100の平均値で既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-19T08:46:18Z) - Cross-City Traffic Prediction via Semantic-Fused Hierarchical Graph
Transfer Learning [17.0011029870241]
近年,データ駆動手法はトラヒック予測や従来の手法よりも優れている。
この問題に対処するために、トランスファーラーニングにより、データ豊富な都市からデータに富む都市へメタ知識を抽出することができる。
本稿では,意味を融合した都市間における知識伝達を実現するために,セマンティック・フューズド・階層型グラフ転送学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-23T04:26:34Z) - "Diversity and Uncertainty in Moderation" are the Key to Data Selection
for Multilingual Few-shot Transfer [13.268758633770595]
本稿では,アノテーションのためのデータ選択手法について検討する。
提案手法は,$n$-gram言語モデルを用いたデータエントロピー,予測エントロピー,勾配埋め込みなどの複数の尺度に依存する。
実験により、勾配と損失埋め込みに基づく戦略は、ランダムなデータ選択ベースラインを一貫して上回ることが示された。
論文 参考訳(メタデータ) (2022-06-30T04:22:27Z) - PreTraM: Self-Supervised Pre-training via Connecting Trajectory and Map [58.53373202647576]
軌道予測のための自己教師付き事前学習方式であるPreTraMを提案する。
1) トラジェクティブ・マップ・コントラクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)の2つのパートから構成される。
AgentFormerやTrajectron++といった一般的なベースラインに加えて、PreTraMは、挑戦的なnuScenesデータセット上で、FDE-10でパフォーマンスを5.5%と6.9%向上させる。
論文 参考訳(メタデータ) (2022-04-21T23:01:21Z) - Fine-Grained Scene Graph Generation with Data Transfer [127.17675443137064]
シーングラフ生成(SGG)は、画像中の三つ子(オブジェクト、述語、オブジェクト)を抽出することを目的としている。
最近の研究は、SGGを着実に進歩させ、高レベルの視覚と言語理解に有用なツールを提供している。
そこで本研究では,プレー・アンド・プラグ方式で適用可能で,約1,807の述語クラスを持つ大規模SGGに拡張可能な,内部・外部データ転送(IETrans)手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T12:26:56Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Frustratingly Easy Transferability Estimation [64.42879325144439]
本稿では,TransRate という,シンプルで効率的かつ効果的な転送可能性尺度を提案する。
TransRateは、事前訓練されたモデルによって抽出された対象サンプルの特徴とそれらのラベルとの間の相互情報として、転送可能性を測定する。
10行のコードで並外れた単純さにもかかわらず、TransRateは、22の事前訓練されたモデルと16のダウンストリームタスクに対する広範囲な評価において、非常にうまく機能している。
論文 参考訳(メタデータ) (2021-06-17T10:27:52Z) - Transferring and Regularizing Prediction for Semantic Segmentation [115.88957139226966]
本稿では,セマンティックセグメンテーションの本質的特性を利用して,モデル伝達におけるそのような問題を緩和する。
本稿では,モデル転送を教師なし方式で正規化するための制約として固有特性を課す予測伝達の正規化器(RPT)を提案する。
GTA5とSynTHIA(synthetic data)で訓練されたモデルの都市景観データセット(アーバンストリートシーン)への転送に関するRTPの提案を検証するため、大規模な実験を行った。
論文 参考訳(メタデータ) (2020-06-11T16:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。