論文の概要: Align-Deform-Subtract: An Interventional Framework for Explaining Object
Differences
- arxiv url: http://arxiv.org/abs/2203.04694v1
- Date: Wed, 9 Mar 2022 13:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 14:16:00.527840
- Title: Align-Deform-Subtract: An Interventional Framework for Explaining Object
Differences
- Title(参考訳): Align-Deform-Subtract: オブジェクトの違いを説明するためのインターベンショナルフレームワーク
- Authors: Cian Eastwood, Li Nanbo, Christopher K. I. Williams
- Abstract要約: 本稿では,オブジェクトの違いを説明するための介入フレームワークを提案する。
我々は、画像空間における意味的アライメントを、基礎となるオブジェクト特性に対する反ファクト的介入として利用する。
結果は、その基礎となる特性の観点からオブジェクトの違いを説明する一連の「異方性」エラー測度である。
- 参考スコア(独自算出の注目度): 8.116091120484585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given two object images, how can we explain their differences in terms of the
underlying object properties? To address this question, we propose
Align-Deform-Subtract (ADS) -- an interventional framework for explaining
object differences. By leveraging semantic alignments in image-space as
counterfactual interventions on the underlying object properties, ADS
iteratively quantifies and removes differences in object properties. The result
is a set of "disentangled" error measures which explain object differences in
terms of their underlying properties. Experiments on real and synthetic data
illustrate the efficacy of the framework.
- Abstract(参考訳): 2つのオブジェクトイメージが与えられたら、それらの違いを基礎となるオブジェクト特性の観点からどのように説明できますか?
本稿では,オブジェクトの違いを説明するための介入フレームワークであるaligned-deform-subtract (ads)を提案する。
画像空間のセマンティックアライメントを、基礎となるオブジェクトプロパティに対する反ファクトの介入として活用することにより、ADSはオブジェクトプロパティの差異を反復的に定量化し、除去する。
結果は、その基礎となる特性の観点からオブジェクトの違いを説明する一連の「異方性」エラー測度である。
実データおよび合成データに関する実験は、フレームワークの有効性を示している。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Two Effects, One Trigger: On the Modality Gap, Object Bias, and Information Imbalance in Contrastive Vision-Language Models [27.618704505738425]
コントラスト視覚言語モデル(VLM)は、様々な下流タスクに適用可能であることで人気を集めている。
ゼロショットオブジェクト認識のようないくつかのタスクで成功しているにもかかわらず、属性認識のような他のタスクでは驚くほど貧弱である。
これまでの研究では、これらの課題は、モダリティギャップ、共有表現空間における画像とテキストの分離、属性などの他の要因に対するオブジェクトに対するバイアスなどによるものだった。
論文 参考訳(メタデータ) (2024-04-11T17:58:06Z) - CRIPP-VQA: Counterfactual Reasoning about Implicit Physical Properties
via Video Question Answering [50.61988087577871]
CRIPP-VQA(CRIPP-VQA)は、シーン内のオブジェクトの暗黙的な物理的特性を推論するための新しいビデオ質問応答データセットである。
CRIPP-VQAには、動作中の物体のビデオが含まれており、反事実的推論に関わる疑問が注がれている。
実験の結果,暗黙的特性に関する疑問に答える上で,驚くべき,重要なパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2022-11-07T18:55:26Z) - DALLE-2 is Seeing Double: Flaws in Word-to-Concept Mapping in Text2Image
Models [53.29993651680099]
DALLE-2は各単語が解釈においてひとつの役割を持つという制約に従わないことを示す。
DALLE-2は、複数の感覚を持つ名詞の両感覚を同時に表現している。
論文 参考訳(メタデータ) (2022-10-19T14:52:40Z) - Object-Compositional Neural Implicit Surfaces [45.274466719163925]
ニューラル暗示表現は、新しいビュー合成と多視点画像からの高品質な3D再構成においてその効果を示した。
本稿では,3次元再構成とオブジェクト表現に高い忠実性を有するオブジェクト合成型ニューラル暗黙表現を構築するための新しいフレームワークであるObjectSDFを提案する。
論文 参考訳(メタデータ) (2022-07-20T06:38:04Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。