論文の概要: Unbiased Scene Graph Generation from Biased Training
- arxiv url: http://arxiv.org/abs/2002.11949v3
- Date: Wed, 11 Mar 2020 07:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:56:19.788310
- Title: Unbiased Scene Graph Generation from Biased Training
- Title(参考訳): バイアスドトレーニングによる未バイアスシーングラフ生成
- Authors: Kaihua Tang, Yulei Niu, Jianqiang Huang, Jiaxin Shi, Hanwang Zhang
- Abstract要約: 因果推論に基づく新しいSGGフレームワークを提案するが、従来の可能性ではない。
トレーニングされたグラフから反ファクト因果関係を抽出し、悪バイアスから影響を推測する。
特に,無バイアスSGGに対する最終述語スコアとしてTotal Direct Effect(TDE)を用いる。
- 参考スコア(独自算出の注目度): 99.88125954889937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's scene graph generation (SGG) task is still far from practical, mainly
due to the severe training bias, e.g., collapsing diverse "human walk on / sit
on / lay on beach" into "human on beach". Given such SGG, the down-stream tasks
such as VQA can hardly infer better scene structures than merely a bag of
objects. However, debiasing in SGG is not trivial because traditional debiasing
methods cannot distinguish between the good and bad bias, e.g., good context
prior (e.g., "person read book" rather than "eat") and bad long-tailed bias
(e.g., "near" dominating "behind / in front of"). In this paper, we present a
novel SGG framework based on causal inference but not the conventional
likelihood. We first build a causal graph for SGG, and perform traditional
biased training with the graph. Then, we propose to draw the counterfactual
causality from the trained graph to infer the effect from the bad bias, which
should be removed. In particular, we use Total Direct Effect (TDE) as the
proposed final predicate score for unbiased SGG. Note that our framework is
agnostic to any SGG model and thus can be widely applied in the community who
seeks unbiased predictions. By using the proposed Scene Graph Diagnosis toolkit
on the SGG benchmark Visual Genome and several prevailing models, we observed
significant improvements over the previous state-of-the-art methods.
- Abstract(参考訳): 今日のシーングラフ生成(SGG)タスクは、主に、多様な「人間がビーチを歩いたり、座ったり、ビーチで横たわったりする」といった厳しい訓練バイアスのために、まだ実用的ではない。
このようなSGGを考えると、VQAのような下流タスクは単なるオブジェクトの袋よりも、より優れたシーン構造を推測することができない。
しかし、SGGにおける嫌悪は、例えば、良い文脈(例えば「食」ではなく「人読み本」)と悪い長い尾のバイアス(例えば「後ろ/前」を支配)の良さと悪いバイアスを区別できないため、自明なものではない。
本稿では,因果推論に基づく新しいSGGフレームワークを提案する。
まず、SGGの因果グラフを構築し、従来のバイアス付きトレーニングをグラフで実施する。
次に, 学習したグラフから反事実因果関係を抽出し, 除去すべき悪いバイアスの影響を推測する。
特に,無バイアスSGGに対する最終述語スコアとしてTotal Direct Effect(TDE)を用いる。
我々のフレームワークはどんなSGGモデルにも依存せず、偏見のない予測を求めるコミュニティにも広く適用できる。
提案手法をsggベンチマークによる視覚的ゲノム解析に応用し,従来の手法と比較して有意な改善がみられた。
関連論文リスト
- Fine-Grained Scene Graph Generation via Sample-Level Bias Prediction [12.319354506916547]
微粒なシーングラフ生成のためのサンプルレベルバイアス予測(SBP)手法を提案する。
まず、古典的なSGGモデルを訓練し、補正バイアスセットを構築する。
そこで我々は,BGAN(Bias-Oriented Generative Adversarial Network)を考案し,構築した補正バイアスを予測する。
論文 参考訳(メタデータ) (2024-07-27T13:49:06Z) - HiKER-SGG: Hierarchical Knowledge Enhanced Robust Scene Graph Generation [13.929906773382752]
視覚データに対する推論を可能にする一般的なアプローチとして、Scene Graph Generation (SGG)がある。
そこで本稿では,視覚ゲノムデータセット上でのプロシージャ的に生成された気象汚染やその他の変換を含む新しいSGGベンチマークを提案する。
また,HKER-SGGは劣化した画像に対してゼロショット方式で優れた性能を示すだけでなく,非破壊なSGGタスクにおける最先端の手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-03-18T17:59:10Z) - Informative Scene Graph Generation via Debiasing [124.71164256146342]
シーングラフ生成は、視覚的関係三重項(オブジェクト、述語、オブジェクト)を検出することを目的としている
データのバイアスのため、現在のモデルは一般的な述語を予測する傾向がある。
本稿では,DB-SGGを提案する。
論文 参考訳(メタデータ) (2023-08-10T02:04:01Z) - Learning To Generate Scene Graph from Head to Tail [65.48134724633472]
我々は,頭から爪までのシーングラフを生成する新しいSGGフレームワーク(SGG-HT)を提案する。
CRMはまず、ヘッドプレフィックスの堅牢な機能のためにヘッド/イージーなサンプルを学び、徐々にテール/ハードなものに集中します。
SCMは,大域的および局所的な表現において,生成したシーングラフと基底的真実とのセマンティック一貫性を確保することで意味の偏りを緩和する。
論文 参考訳(メタデータ) (2022-06-23T12:16:44Z) - Resistance Training using Prior Bias: toward Unbiased Scene Graph
Generation [47.69807004675605]
SGG(Scene Graph Generation)は、オブジェクトとペア関係を使ってシーンの構造的表現を構築することを目的としている。
シーングラフ生成のための先行バイアス(RTPB)を用いた抵抗トレーニングを提案する。
RTPBは,現在のSGG法に適用した場合,平均リコールで10%以上の改善を実現している。
論文 参考訳(メタデータ) (2022-01-18T07:48:55Z) - From General to Specific: Informative Scene Graph Generation via Balance
Adjustment [113.04103371481067]
現在のモデルは、情報的なモデルではなく、例えば"on"や"at"といった一般的な述語に留まっている。
本稿では,バランス調整に基づくフレームワークであるBA-SGGを提案する。
提案手法は,視覚ゲノム上の3つのシーングラフ生成サブタスクにおいて,トランスフォーマーモデルよりも14.3%,8.0%,および6.1%高い平均リコール(mR)を実現する。
論文 参考訳(メタデータ) (2021-08-30T11:39:43Z) - Recovering the Unbiased Scene Graphs from the Biased Ones [99.24441932582195]
ラベルが不足しているため、シーングラフ生成(SGG)は「肯定的・未ラベルデータからの学習」(PU学習)問題とみなすことができる。
本稿では,複数のトレーニングイテレーションにまたがって,トレーニング時のデータ拡張と平均値を活用するために,動的ラベル周波数推定(DLFE)を提案する。
拡張実験の結果,DLFEは従来の推定法よりもラベル周波数の推定に有効であり,DLFEは長い尾を著しく緩和することがわかった。
論文 参考訳(メタデータ) (2021-07-05T16:10:41Z) - CogTree: Cognition Tree Loss for Unbiased Scene Graph Generation [23.55530043171931]
SGG(Scene Graph Generation)は、現実のシナリオでバイアスデータに直面すると満足できない。
本研究では,非バイアスSGGに対する新規なデバイアス認知木(CogTree)の損失を提案する。
この損失はモデルに依存しず、いくつかの最先端モデルの性能を一貫して向上させる。
論文 参考訳(メタデータ) (2020-09-16T07:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。