論文の概要: The Configuration of Space: Probing the Way Social Interaction and Perception are Affected by Task-Specific Spatial Representations in Online Video Communication
- arxiv url: http://arxiv.org/abs/2602.12771v1
- Date: Fri, 13 Feb 2026 09:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.915859
- Title: The Configuration of Space: Probing the Way Social Interaction and Perception are Affected by Task-Specific Spatial Representations in Online Video Communication
- Title(参考訳): 空間の構成--オンラインビデオコミュニケーションにおける課題特有な空間表現の影響-
- Authors: Yihuan Chen, Kexue Fu, Qianyi Chen, Zhicong Lu, Ray LC,
- Abstract要約: 2Dスクリーン上でのオンラインコミュニケーションの普及は、人間の空間構成が我々の能力に影響を及ぼすかどうかという問題を提起する。
Ohyay.coをプラットフォームとして使用し、通常のギャラリーインターフェースとシーンベースのRoom-typeインターフェースを比較した。
被験者がスポットライトから隠れる方法,視点撮影,画面上での表現的ジェスチャーの使用に空間的効果が認められた。
- 参考スコア(独自算出の注目度): 42.01788893853102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans live and act in 3D space, but often work and communicate on 2D surfaces. The prevalence of online communication on 2D screens raises the issue of whether human spatial configuration affects our capabilities, social perception, and behaviors when interacting with others in 2D video chat. How do factors like location, setting, and context subtly shape our online communication, particularly in scenarios such as social support and topic-based discussions? Using Ohyay.co as a platform, we compared a normal gallery interface with a scene-based Room-type interface where participants are located in circular arrangement on screen in a social support task, and found that participants allocated attention to the group as a whole, and had pronounced self-awareness in the Room format. We then chose a two-sided topic for discussion in the Gallery interface and the Room interface where participants on each team face-off against each other, and found that they utilized spatial references to orient their allegiances, expressing greater engagement with those farther away in digital space and greater empathy with those closer, in the Room over the Gallery format. We found spatial effects in the way participants hide from the spotlight, in perspective-taking, and in their use of expressive gestures in time on the screen. This work highlights the need for considering spatial configuration in 2D in the design of collaborative communication systems to optimize for psychological needs for particular tasks.
- Abstract(参考訳): 人間は3D空間に住み、行動するが、しばしば2D表面で働き、通信する。
2D画面上でのオンラインコミュニケーションの頻度は、人間の空間構成が2Dビデオチャットで他人と対話する際の能力、社会的知覚、行動に影響を及ぼすかどうかという問題を提起する。
ソーシャルサポートやトピックベースの議論といったシナリオにおいて、ロケーションやセッティング、コンテキストといった要因は、オンラインコミュニケーションを微妙に形成するのでしょうか?
そこで,Ohyay.coをプラットフォームとして,通常のギャラリーインタフェースとシーンベースのRoom-typeインターフェースを比較した。
次に、ギャラリーインターフェースとルームインターフェースで議論するための2面のトピックを選び、各チームの参加者が互いに対決して、彼らの忠誠を順守するために空間的な参照を利用し、デジタル空間で遠くにいる人たちとのより深い関わりと、ギャラリーフォーマットのRoom over the Galleryフォーマットでのより深い共感を表明しました。
被験者がスポットライトから隠れる方法,視点撮影,画面上での表現的ジェスチャーの使用に空間的効果が認められた。
この研究は、特定のタスクに対する心理的ニーズを最適化するために、協調コミュニケーションシステムの設計において2次元の空間的構成を考える必要性を強調している。
関連論文リスト
- SURPRISE3D: A Dataset for Spatial Understanding and Reasoning in Complex 3D Scenes [105.8644620467576]
Stextscurprise3Dは複雑な3次元シーンにおける言語誘導空間推論のセグメンテーションを評価するために設計された新しいデータセットである。
Stextscurprise3Dは、ScanNet++ v2から900以上の詳細な屋内シーンにわたる200k以上の視覚言語ペアで構成されている。
データセットには、オブジェクト名なしで意図的に作成される89k以上の人間アノテーション付き空間クエリが含まれている。
論文 参考訳(メタデータ) (2025-07-10T14:01:24Z) - Thing2Reality: Transforming 2D Content into Conditioned Multiviews and 3D Gaussian Objects for XR Communication [29.051341502575198]
リモートコミュニケーションの間、参加者は製品デザイン、デジタル資産、環境など、デジタルコンテンツと物理的コンテンツの両方を共有します。
我々は,デジタルおよび物理アイテムの自発的な議論を促進する,拡張現実(XR)コミュニケーションプラットフォームThing2Realityを提案する。
本研究により,物体の3次元表現を操作・操作できる能力は,議論の効率を著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-09T17:49:06Z) - Grounding 3D Scene Affordance From Egocentric Interactions [52.5827242925951]
接地型3Dシーンアベイランスは、3D環境におけるインタラクティブな領域を見つけることを目的としている。
我々は,エゴセントリックなインタラクションから3Dシーンの空き時間を確保するという,新しい課題を紹介した。
論文 参考訳(メタデータ) (2024-09-29T10:46:19Z) - SpaceBlender: Creating Context-Rich Collaborative Spaces Through Generative 3D Scene Blending [19.06858242647237]
ユーザが提供する2Dイメージを,コンテキストに富んだ3D環境に変換するパイプラインであるSpaceBlenderを紹介する。
参加者はSpaceBlenderが提供する親しみやすさとコンテキストを高く評価したが、生成環境の複雑さは注目された。
そこで我々は,パイプライン改善の方向性を提案し,異なるシナリオに対するブレンド空間の価値と設計について議論する。
論文 参考訳(メタデータ) (2024-09-20T22:27:31Z) - Semantic-guided modeling of spatial relation and object co-occurrence for indoor scene recognition [5.083140094792973]
SpaCoNetは、セマンティックセグメンテーションによって導かれるオブジェクトの空間的関係と共起を同時にモデル化する。
広範に利用されている3つのシーンデータセットの実験結果から,提案手法の有効性と汎用性を示す。
論文 参考訳(メタデータ) (2023-05-22T03:04:22Z) - Grounding 3D Object Affordance from 2D Interactions in Images [128.6316708679246]
接地した3Dオブジェクトは、3D空間内のオブジェクトの'アクション可能性'領域を見つけようとする。
人間は、実演画像やビデオを通じて、物理的世界の物体の余裕を知覚する能力を持っている。
我々は、異なるソースからのオブジェクトの領域的特徴を整合させる、インタラクション駆動の3D Affordance Grounding Network (IAG) を考案する。
論文 参考訳(メタデータ) (2023-03-18T15:37:35Z) - SceneHGN: Hierarchical Graph Networks for 3D Indoor Scene Generation
with Fine-Grained Geometry [92.24144643757963]
3D屋内シーンは、インテリアデザインからゲーム、バーチャルおよび拡張現実に至るまで、コンピュータグラフィックスで広く使われている。
高品質な3D屋内シーンは、専門知識が必要であり、手動で高品質な3D屋内シーンを設計するのに時間を要する。
SCENEHGNは3次元屋内シーンの階層的なグラフネットワークであり,部屋レベルからオブジェクトレベルまでの全階層を考慮し,最後にオブジェクト部分レベルに展開する。
提案手法は, 立体形状の細かな家具を含む, 可塑性3次元室内容を直接生成し, 直接的に生成することができる。
論文 参考訳(メタデータ) (2023-02-16T15:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。