論文の概要: Human Semantic Representations of Social Interactions from Moving Shapes
- arxiv url: http://arxiv.org/abs/2509.20673v1
- Date: Thu, 25 Sep 2025 02:15:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.656089
- Title: Human Semantic Representations of Social Interactions from Moving Shapes
- Title(参考訳): 移動形からの社会的相互作用の人間の意味表現
- Authors: Yiling Yun, Hongjing Lu,
- Abstract要約: 視覚的特徴を補うために人間が使用する意味表現について検討する。
人間の類似性判定により,27の社会的相互作用の表現幾何学を測定した。
意味モデルの中で、記述から抽出された動詞ベースの埋め込みは、人間の類似性判断が最善である。
- 参考スコア(独自算出の注目度): 0.3007949058551534
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Humans are social creatures who readily recognize various social interactions from simple display of moving shapes. While previous research has often focused on visual features, we examine what semantic representations that humans employ to complement visual features. In Study 1, we directly asked human participants to label the animations based on their impression of moving shapes. We found that human responses were distributed. In Study 2, we measured the representational geometry of 27 social interactions through human similarity judgments and compared it with model predictions based on visual features, labels, and semantic embeddings from animation descriptions. We found that semantic models provided complementary information to visual features in explaining human judgments. Among the semantic models, verb-based embeddings extracted from descriptions account for human similarity judgments the best. These results suggest that social perception in simple displays reflects the semantic structure of social interactions, bridging visual and abstract representations.
- Abstract(参考訳): 人間は、動く形状の単純な表示から様々な社会的相互作用を容易に認識する社会生物である。
これまでは視覚的特徴に焦点を合わせてきたが、視覚的特徴を補完するために人間が使用する意味表現について検討した。
研究1では,動きの印象に基づくアニメーションのラベル付けを,直接被験者に依頼した。
人間の反応が分散していることがわかりました。
研究2では, 人間の類似性判断による27の社会的相互作用の表現幾何学を測定し, 視覚的特徴, ラベル, 意味的埋め込みに基づくモデル予測と比較した。
人間の判断を説明する上で,意味モデルが視覚的特徴に相補的な情報を提供することがわかった。
意味モデルの中で、記述から抽出された動詞ベースの埋め込みは、人間の類似性判断が最善である。
これらの結果は、単純な表示における社会的知覚は、社会的相互作用の意味的構造を反映し、視覚的および抽象的な表現をブリッジしていることを示唆している。
関連論文リスト
- Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Probing the contents of semantic representations from text, behavior, and brain data using the psychNorms metabase [0.0]
テキスト,行動,脳データから得られた意味表現の類似性と相違について検討した。
我々は、人間の表現や行動を把握するためのテキストの重要な補完として行動を確立する。
論文 参考訳(メタデータ) (2024-12-06T10:44:20Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - A natural language processing-based approach: mapping human perception
by understanding deep semantic features in street view images [2.5880672192855414]
本研究では,人間の知覚とシーンの関係を理解するために,事前学習型自然言語モデルに基づく新しいフレームワークを提案する。
以上の結果から, 深い意味的特徴による人間の知覚評価は, 浅い特徴を持つ機械学習手法による従来の研究よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-11-29T05:00:43Z) - Towards Explaining Subjective Ground of Individuals on Social Media [28.491401997248527]
本研究は、個人の主観的根拠を学習し、ソーシャルメディアに投稿された他人の状況を判断する神経モデルを提案する。
簡単な注意モジュールと過去の活動を考慮に入れた上で,我々のモデルは,社会的状況を判断する際の個人の主観的嗜好について,人間可読な説明を提供することを実証的に示す。
論文 参考訳(メタデータ) (2022-11-18T00:29:05Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Enhancing Social Relation Inference with Concise Interaction Graph and
Discriminative Scene Representation [56.25878966006678]
我々はtextbfSocial rtextbfElation (PRISE) における textbfPractical textbfInference のアプローチを提案する。
人の対話的特徴と全体主義的な場面の識別的特徴を簡潔に学習する。
PRISEはPIPAデータセットにおけるドメイン分類の改善を6.8$%で達成している。
論文 参考訳(メタデータ) (2021-07-30T04:20:13Z) - Learning Triadic Belief Dynamics in Nonverbal Communication from Videos [81.42305032083716]
非言語コミュニケーションはエージェント間で豊富な社会情報を伝達することができる。
本論文では,エージェントの精神状態を表現,モデル化,学習,推論するために,異なる非言語的コミュニケーションキューを組み込んだ。
論文 参考訳(メタデータ) (2021-04-07T00:52:04Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。