論文の概要: Time is On My Side: Dynamics of Talk-Time Sharing in Video-chat Conversations
- arxiv url: http://arxiv.org/abs/2506.20474v1
- Date: Wed, 25 Jun 2025 14:23:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.779201
- Title: Time is On My Side: Dynamics of Talk-Time Sharing in Video-chat Conversations
- Title(参考訳): ビデオチャット会話における会話時間共有のダイナミクス
- Authors: Kaixiang Zhang, Justine Zhang, Cristian Danescu-Niculescu-Mizil,
- Abstract要約: すべての会話の本質的な側面は、複数の話者間で会話時間を共有する方法である。
本稿では,話者間の会話時間分布を定量化する計算フレームワークを提案する。
我々はこのフレームワークを、見知らぬ人間のビデオチャットの大規模なデータセットに適用する。
- 参考スコア(独自算出の注目度): 8.063275432999513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An intrinsic aspect of every conversation is the way talk-time is shared between multiple speakers. Conversations can be balanced, with each speaker claiming a similar amount of talk-time, or imbalanced when one talks disproportionately. Such overall distributions are the consequence of continuous negotiations between the speakers throughout the conversation: who should be talking at every point in time, and for how long? In this work we introduce a computational framework for quantifying both the conversation-level distribution of talk-time between speakers, as well as the lower-level dynamics that lead to it. We derive a typology of talk-time sharing dynamics structured by several intuitive axes of variation. By applying this framework to a large dataset of video-chats between strangers, we confirm that, perhaps unsurprisingly, different conversation-level distributions of talk-time are perceived differently by speakers, with balanced conversations being preferred over imbalanced ones, especially by those who end up talking less. Then we reveal that -- even when they lead to the same level of overall balance -- different types of talk-time sharing dynamics are perceived differently by the participants, highlighting the relevance of our newly introduced typology. Finally, we discuss how our framework offers new tools to designers of computer-mediated communication platforms, for both human-human and human-AI communication.
- Abstract(参考訳): すべての会話の本質的な側面は、複数の話者間で会話時間を共有する方法である。
会話はバランスが取れ、各話者は同じ量のトークタイムを主張するか、不均等に話すと不均衡になる。
このような全体的な分布は、会話全体を通して話者間の継続的な交渉の結果である。
本研究では,話者間の会話時間分布とそれにつながる低レベル力学の両方を定量化する計算フレームワークを提案する。
変動の直感的な軸によって構成される会話時間共有ダイナミクスのタイプロジを導出する。
このフレームワークを、見知らぬ人のビデオチャットの大規模なデータセットに適用することにより、おそらく当然のことながら、会話時間の異なる会話レベルの分布が話者によって異なると認識され、不均衡な会話よりもバランスの取れた会話の方が好まれる。
そして、同じレベルの全体的なバランスに導いたとしても、参加者によって異なるタイプの会話時間共有のダイナミクスが認識され、新しく導入されたタイポロジーの関連性を強調します。
最後に、我々のフレームワークが、人間とAIの両方のコミュニケーションのために、コンピュータによるコミュニケーションプラットフォームの設計者にどのように新しいツールを提供するかについて論じる。
関連論文リスト
- DualTalk: Dual-Speaker Interaction for 3D Talking Head Conversations [18.419225973482423]
既存の3Dトーキングヘッドジェネレーションモデルは、話すことや聞くことのみに焦点を当てている。
本稿では,3次元音声ヘッド生成のためのマルチラウンドデュアルスピーカインタラクションを提案する。
我々は、話者とリスナーの動的挙動を統合する新しい統合フレームワークであるDualTalkを紹介する。
論文 参考訳(メタデータ) (2025-05-23T16:49:05Z) - Multimodal Conversation Structure Understanding [12.29827265137757]
大きな言語モデルでは、きめ細かい会話構造を理解する能力は未解明のままである。
我々は,話者と回答関係のための4,398の注釈付きデータセット,5,755人のアドレナリ,3,142人のサイド参加者を提示する。
音声-視覚的LLMと視覚言語モデルの評価をデータセット上で行い, 実験結果から, マルチモーダル対話構造理解は依然として困難であることが示唆された。
論文 参考訳(メタデータ) (2025-05-23T06:41:54Z) - Mind the Gap Between Conversations for Improved Long-Term Dialogue
Generation [21.109006148673846]
GapChatは、セッション間の時間が異なるマルチセッション対話データセットである。
データセットはリアルタイムに構築されているが、話者の生活における出来事の進行をシミュレートして、長い時間間隔で発生する現実的な対話を生成する。
時間認識モデルは、選択したトピックと会話から得られる情報との関係を判断する指標において、より良いパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-10-24T00:12:38Z) - Conversation Chronicles: Towards Diverse Temporal and Relational
Dynamics in Multi-Session Conversations [9.249662593315541]
我々は,長期会話設定を実装するために,新たに100万件の多セッション対話データセットであるConversation Chroniclesを導入する。
会話年代記の対話エピソードは、一貫性と一貫した相互作用を維持しながら、それらの特性を反映していることを示す。
また、時系列要約と対話生成モジュールで構成されるReBotと呼ばれる対話モデルを提案する。
論文 参考訳(メタデータ) (2023-10-20T11:06:21Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。