論文の概要: Mental representations of objects reflect the ways in which we interact
with them
- arxiv url: http://arxiv.org/abs/2007.04245v2
- Date: Tue, 11 May 2021 13:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:27:17.072546
- Title: Mental representations of objects reflect the ways in which we interact
with them
- Title(参考訳): 物体の心的表現は、それらと相互作用する方法を反映する
- Authors: Ka Chun Lam, Francisco Pereira, Maryam Vaziri-Pashkam, Kristin
Woodard, Emalie McMahon
- Abstract要約: 本研究では,各次元が広い相互作用モードに対応する空間内でオブジェクトを表現する手法を提案する。
この空間の次元は、対象の最先端の心的表現におけるカテゴリー的および機能的次元を予測するのに利用できることを示す。
- 参考スコア(独自算出の注目度): 1.0207955314209531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to interact with objects in our environment, humans rely on an
understanding of the actions that can be performed on them, as well as their
properties. When considering concrete motor actions, this knowledge has been
called the object affordance. Can this notion be generalized to any type of
interaction that one can have with an object? In this paper we introduce a
method to represent objects in a space where each dimension corresponds to a
broad mode of interaction, based on verb selectional preferences in text
corpora. This object embedding makes it possible to predict human judgments of
verb applicability to objects better than a variety of alternative approaches.
Furthermore, we show that the dimensions in this space can be used to predict
categorical and functional dimensions in a state-of-the-art mental
representation of objects, derived solely from human judgements of object
similarity. These results suggest that interaction knowledge accounts for a
large part of mental representations of objects.
- Abstract(参考訳): 私たちの環境でオブジェクトと対話するために、人間はそれらの上で実行できるアクションとその特性の理解に依存している。
具体的な運動行動を考えるとき、この知識はオブジェクトアフォーアンスと呼ばれる。
この概念は、オブジェクトと持てるあらゆる種類の相互作用に一般化できるだろうか?
本稿では,テキストコーパスにおける動詞選択選好に基づいて,各次元が広い相互作用モードに対応する空間内のオブジェクトを表現する手法を提案する。
このオブジェクト埋め込みは、様々な代替アプローチよりも、オブジェクトに対する動詞の適用可能性の人間の判断を予測可能にする。
さらに、この空間の次元は、対象の類似性の人間の判断のみから導かれる、最先端の物体の心的表現におけるカテゴリー的および機能的次元の予測に利用できることを示した。
これらの結果は、相互作用知識が物体の精神的表現の大部分を占めていることを示唆している。
関連論文リスト
- Which objects help me to act effectively? Reasoning about physically-grounded affordances [0.6291443816903801]
この理解の重要な側面は、オブジェクトの余裕を検出することである。
提案手法は,大規模言語モデル (LLM) と視覚言語モデル (VLM) の対話を利用して,オープンワールドのアベイランス検出を実現する。
我々のシステムを物理的世界に接地することで、ロボットの体現と、遭遇する物体の本質的な性質を説明できる。
論文 参考訳(メタデータ) (2024-07-18T11:08:57Z) - LEMON: Learning 3D Human-Object Interaction Relation from 2D Images [56.6123961391372]
人間の物体と物体の相互作用関係の学習は、AIと相互作用モデリングの具体化に不可欠である。
既存のほとんどの手法は、孤立した相互作用要素を予測することを学ぶことで目標に近づいている。
本稿では,相互の相互作用意図をマイニングし,幾何相関の抽出を導出するための曲率を用いた統一モデルLEMONを提案する。
論文 参考訳(メタデータ) (2023-12-14T14:10:57Z) - Modelling Spatio-Temporal Interactions for Compositional Action
Recognition [21.8767024220287]
人間は、アクションやバックグラウンドに関わるオブジェクトが変更されても、アクションを認識する能力を持っている。
本研究では,インタラクション中心のアプローチが構成的Somes-Elseデータセットに与える影響を示す。
人-物-物間相互作用モデリングのアプローチは,標準的な行動認識データセットにおいても有効である。
論文 参考訳(メタデータ) (2023-05-04T09:37:45Z) - Fine-grained Affordance Annotation for Egocentric Hand-Object
Interaction Videos [27.90643693526274]
物価は、人間の運動能力と物体の物理的性質に基づく行動可能性に関する情報を提供する。
本稿では,これらの課題に対処するための効果的なアノテーション手法を提案する。
我々はEPIC-KITCHENSデータセットにこのスキームを適用して新しいアノテーションを提供し、アベイランス認識、ハンドオブジェクト相互作用ホットスポット予測、アベイランスのクロスドメイン評価などのタスクでアノテーションをテストする。
論文 参考訳(メタデータ) (2023-02-07T07:05:00Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z) - Human and Machine Action Prediction Independent of Object Information [1.0806206850043696]
行動中に変化する物体間関係の役割について検討する。
我々は平均して、アクションの持続時間の64%以下で行動を予測する。
論文 参考訳(メタデータ) (2020-04-22T12:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。