論文の概要: Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition
- arxiv url: http://arxiv.org/abs/2110.04042v1
- Date: Fri, 8 Oct 2021 11:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:04:52.818388
- Title: Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition
- Title(参考訳): Context-LGM:コンテキスト認識のためのオブジェクトコンテキスト関係の活用
- Authors: Mingzhou Liu, Xinwei Sun, Fandong Zhang, Yizhou Yu, Yizhou Wang
- Abstract要約: 本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
- 参考スコア(独自算出の注目度): 48.5398871460388
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Context, as referred to situational factors related to the object of
interest, can help infer the object's states or properties in visual
recognition. As such contextual features are too diverse (across instances) to
be annotated, existing attempts simply exploit image labels as supervision to
learn them, resulting in various contextual tricks, such as features pyramid,
context attention, etc. However, without carefully modeling the context's
properties, especially its relation to the object, their estimated context can
suffer from large inaccuracy. To amend this problem, we propose a novel
Contextual Latent Generative Model (Context-LGM), which considers the
object-context relation and models it in a hierarchical manner. Specifically,
we firstly introduce a latent generative model with a pair of correlated latent
variables to respectively model the object and context, and embed their
correlation via the generative process. Then, to infer contextual features, we
reformulate the objective function of Variational Auto-Encoder (VAE), where
contextual features are learned as a posterior distribution conditioned on the
object. Finally, to implement this contextual posterior, we introduce a
Transformer that takes the object's information as a reference and locates
correlated contextual factors. The effectiveness of our method is verified by
state-of-the-art performance on two context-aware object recognition tasks,
i.e. lung cancer prediction and emotion recognition.
- Abstract(参考訳): 関心の対象に関連する状況要因と呼ばれる文脈は、視覚認識において対象の状態や特性を推測するのに役立ちます。
このようなコンテキスト機能はアノテートするには多様すぎる(クロスインスタンス)ため、既存の試みは単にイメージラベルを監視として活用して学習し、機能ピラミッドやコンテキストの注意など、さまざまなコンテキスト上のトリックを生み出している。
しかし、コンテキストの特性、特にオブジェクトとの関係を慎重にモデル化しなければ、その推定されたコンテキストは大きな不正確さに悩まされる。
この問題を解決するために,オブジェクト・コンテキスト関係を階層的にモデル化するコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
具体的には、まず2つの相関変数を持つ潜在生成モデルを導入し、オブジェクトとコンテキストをそれぞれモデル化し、生成プロセスを介してそれらの相関を埋め込む。
そして、文脈特徴を推測するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に条件付き後続分布としてコンテキスト特徴を学習する。
最後に、このコンテキスト後部を実装するために、オブジェクトの情報を参照として取り出し、相関したコンテキスト要因を特定するトランスフォーマーを導入する。
本手法の有効性は,肺がんの予測と感情認識という2つのコンテキスト認識オブジェクト認識タスクにおける最先端の性能によって検証される。
関連論文リスト
- Lost in Context: The Influence of Context on Feature Attribution Methods for Object Recognition [4.674826882670651]
本研究では,文脈操作がモデル精度と特徴属性の両方にどのように影響するかを検討する。
我々は、オブジェクト認識タスクにおけるコンテキストに基づくディープニューラルネットワークの信頼度を解明するために、様々な特徴属性技術を用いている。
論文 参考訳(メタデータ) (2024-11-05T06:13:01Z) - Context-Aware Temporal Embedding of Objects in Video Data [0.8287206589886881]
ビデオ分析において、時間的コンテキストを理解することは、時間とともにオブジェクトの相互作用、イベントパターン、コンテキストの変化を認識するために不可欠である。
提案モデルは、隣接するビデオフレームからのオブジェクト間の隣接性と意味的類似性を利用して、コンテキスト対応の時間的オブジェクト埋め込みを構築する。
実証実験により、従来の視覚的埋め込みと組み合わせて、文脈対応の時間的埋め込みを利用でき、下流アプリケーションの有効性を高めることができることが示された。
論文 参考訳(メタデータ) (2024-08-23T01:44:10Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - Out of Context: A New Clue for Context Modeling of Aspect-based
Sentiment Analysis [54.735400754548635]
ABSAは、与えられた側面に関してレビューで表現された感情を予測することを目的としている。
与えられたアスペクトは、コンテキストモデリングプロセスにおけるコンテキストからの新たなヒントと見なされるべきである。
異なるバックボーンに基づいて複数のアスペクト認識コンテキストエンコーダを設計する。
論文 参考訳(メタデータ) (2021-06-21T02:26:03Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z) - Don't Judge an Object by Its Context: Learning to Overcome Contextual
Bias [113.44471186752018]
既存のモデルは、認識精度を向上させるために、オブジェクトとそのコンテキスト間の共起を利用することが多い。
この研究は、学習した特徴表現の堅牢性を改善するために、そのような文脈バイアスに対処することに焦点を当てている。
論文 参考訳(メタデータ) (2020-01-09T18:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。