論文の概要: Align-Deform-Subtract: An Interventional Framework for Explaining Object
Differences
- arxiv url: http://arxiv.org/abs/2203.04694v1
- Date: Wed, 9 Mar 2022 13:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 14:16:00.527840
- Title: Align-Deform-Subtract: An Interventional Framework for Explaining Object
Differences
- Title(参考訳): Align-Deform-Subtract: オブジェクトの違いを説明するためのインターベンショナルフレームワーク
- Authors: Cian Eastwood, Li Nanbo, Christopher K. I. Williams
- Abstract要約: 本稿では,オブジェクトの違いを説明するための介入フレームワークを提案する。
我々は、画像空間における意味的アライメントを、基礎となるオブジェクト特性に対する反ファクト的介入として利用する。
結果は、その基礎となる特性の観点からオブジェクトの違いを説明する一連の「異方性」エラー測度である。
- 参考スコア(独自算出の注目度): 8.116091120484585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given two object images, how can we explain their differences in terms of the
underlying object properties? To address this question, we propose
Align-Deform-Subtract (ADS) -- an interventional framework for explaining
object differences. By leveraging semantic alignments in image-space as
counterfactual interventions on the underlying object properties, ADS
iteratively quantifies and removes differences in object properties. The result
is a set of "disentangled" error measures which explain object differences in
terms of their underlying properties. Experiments on real and synthetic data
illustrate the efficacy of the framework.
- Abstract(参考訳): 2つのオブジェクトイメージが与えられたら、それらの違いを基礎となるオブジェクト特性の観点からどのように説明できますか?
本稿では,オブジェクトの違いを説明するための介入フレームワークであるaligned-deform-subtract (ads)を提案する。
画像空間のセマンティックアライメントを、基礎となるオブジェクトプロパティに対する反ファクトの介入として活用することにより、ADSはオブジェクトプロパティの差異を反復的に定量化し、除去する。
結果は、その基礎となる特性の観点からオブジェクトの違いを説明する一連の「異方性」エラー測度である。
実データおよび合成データに関する実験は、フレームワークの有効性を示している。
関連論文リスト
- Object-centric architectures enable efficient causal representation
learning [51.6196391784561]
観測対象が複数の物体である場合, 生成関数はもはや注入的ではなく, 実際に乱れは生じないことを示す。
スパース摂動からの弱い監督を利用して各オブジェクトのプロパティを乱すオブジェクト中心アーキテクチャを開発する。
このアプローチはユークリッド空間にエンコードする同等のアプローチよりもはるかに少ない摂動を必要とするという意味で、よりデータ効率が高い。
論文 参考訳(メタデータ) (2023-10-29T16:01:03Z) - CRIPP-VQA: Counterfactual Reasoning about Implicit Physical Properties
via Video Question Answering [50.61988087577871]
CRIPP-VQA(CRIPP-VQA)は、シーン内のオブジェクトの暗黙的な物理的特性を推論するための新しいビデオ質問応答データセットである。
CRIPP-VQAには、動作中の物体のビデオが含まれており、反事実的推論に関わる疑問が注がれている。
実験の結果,暗黙的特性に関する疑問に答える上で,驚くべき,重要なパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2022-11-07T18:55:26Z) - DALLE-2 is Seeing Double: Flaws in Word-to-Concept Mapping in Text2Image
Models [53.29993651680099]
DALLE-2は各単語が解釈においてひとつの役割を持つという制約に従わないことを示す。
DALLE-2は、複数の感覚を持つ名詞の両感覚を同時に表現している。
論文 参考訳(メタデータ) (2022-10-19T14:52:40Z) - Object-based active inference [0.0]
本稿では,最近のディープオブジェクトベースニューラルネットワークを用いたオブジェクトベースアクティブ推論(OBAI)を紹介する。
OBAIは、異なる変分信念を持つ異なるオブジェクトを表し、対応するオブジェクトスロットに入力をルーティングするために選択的注意を使用する。
OBAIは、映像入力からアクション摂動オブジェクトを正しく分割し、これらのオブジェクトを任意の目標に向けて操作することを学ぶ。
論文 参考訳(メタデータ) (2022-09-02T20:08:43Z) - Object-Compositional Neural Implicit Surfaces [45.274466719163925]
ニューラル暗示表現は、新しいビュー合成と多視点画像からの高品質な3D再構成においてその効果を示した。
本稿では,3次元再構成とオブジェクト表現に高い忠実性を有するオブジェクト合成型ニューラル暗黙表現を構築するための新しいフレームワークであるObjectSDFを提案する。
論文 参考訳(メタデータ) (2022-07-20T06:38:04Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。