論文の概要: Leveraging Large Language Models to Identify Conversation Threads in Collaborative Learning
- arxiv url: http://arxiv.org/abs/2510.22844v1
- Date: Sun, 26 Oct 2025 21:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.392619
- Title: Leveraging Large Language Models to Identify Conversation Threads in Collaborative Learning
- Title(参考訳): 大規模言語モデルの活用による協調学習における会話スレッドの同定
- Authors: Prerna Ravi, Dong Won Lee, Beatriz Flamia, Jasmine David, Brandon Hanks, Cynthia Breazeal, Emma Anderson, Grace Lin,
- Abstract要約: スレッディング(スレッディング)とは、会話が自然に、時間とともに進化する、織り交わされた話題のストランドに組織化される方法である。
本稿では,同期マルチパーティ・トランスクリプト中のスレッドを識別するための体系的なガイドブックを提供する。
次に、スレッディングが会話分析フレームワークの下流コーディングにどのように影響するかをテストする。
- 参考スコア(独自算出の注目度): 14.255468784386977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how ideas develop and flow in small-group conversations is critical for analyzing collaborative learning. A key structural feature of these interactions is threading, the way discourse talk naturally organizes into interwoven topical strands that evolve over time. While threading has been widely studied in asynchronous text settings, detecting threads in synchronous spoken dialogue remains challenging due to overlapping turns and implicit cues. At the same time, large language models (LLMs) show promise for automating discourse analysis but often struggle with long-context tasks that depend on tracing these conversational links. In this paper, we investigate whether explicit thread linkages can improve LLM-based coding of relational moves in group talk. We contribute a systematic guidebook for identifying threads in synchronous multi-party transcripts and benchmark different LLM prompting strategies for automated threading. We then test how threading influences performance on downstream coding of conversational analysis frameworks, that capture core collaborative actions such as agreeing, building, and eliciting. Our results show that providing clear conversational thread information improves LLM coding performance and underscores the heavy reliance of downstream analysis on well-structured dialogue. We also discuss practical trade-offs in time and cost, emphasizing where human-AI hybrid approaches can yield the best value. Together, this work advances methods for combining LLMs and robust conversational thread structures to make sense of complex, real-time group interactions.
- Abstract(参考訳): 小グループ会話におけるアイデアの発達とフローを理解することは、協調学習の分析に不可欠である。
これらの相互作用の鍵となる構造的特徴はスレッディングであり、会話の仕方が自然に、時間とともに進化する話題間ストランドに整理される。
非同期テキスト設定ではスレッド処理が広く研究されているが、重複するターンと暗黙的なキューのため、同期音声対話におけるスレッドの検出は難しいままである。
同時に、大きな言語モデル(LLM)は、談話分析の自動化を約束するが、しばしばこれらの会話リンクのトレースに依存する長いコンテキストタスクに苦労する。
本稿では,グループトークにおけるLLMに基づくリレーショナル動作の符号化において,明示的なスレッドリンケージが向上するかどうかを検討する。
我々は,同期マルチパーティ・トランスクリプト中のスレッドを識別するための体系的なガイドブックを寄贈し,自動スレッディングのための異なる LLM プロンプト戦略をベンチマークする。
次に、スレッディングが会話分析フレームワークの下流コーディングにどのように影響するかをテストする。
その結果、明確な対話スレッド情報を提供することで、LLM符号化性能が向上し、ダウンストリーム解析が適切に構造化された対話に大きく依存していることが判明した。
また、人間とAIのハイブリッドアプローチが最高の価値をもたらすかを強調し、時間とコストの実践的なトレードオフについても論じる。
この研究は、LLMと堅牢な会話スレッド構造を組み合わせて、複雑なリアルタイムグループインタラクションを理解する手法を共に進める。
関連論文リスト
- LLM-Assisted Automated Deductive Coding of Dialogue Data: Leveraging Dialogue-Specific Characteristics to Enhance Contextual Understanding [0.0]
本研究では,LLMを用いた対話データの自動符号化手法を開発した。
対話特有の特徴に基づいて発話のコードを予測する。
また,行動予測の精度は事象予測の精度よりも一貫して高かった。
論文 参考訳(メタデータ) (2025-04-28T12:31:38Z) - A Multi-view Discourse Framework for Integrating Semantic and Syntactic Features in Dialog Agents [0.0]
マルチターン対話モデルは,会話の文脈を利用して人間的な応答を生成することを目的としている。
既存の手法はしばしばこれらの発話間の相互作用を無視したり、それら全てを等しく重要なものとして扱う。
本稿では,検索に基づく対話システムにおける応答選択のための談話認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-12T04:22:18Z) - With a Little Help from my (Linguistic) Friends: Topic Segmentation of
Multi-party Casual Conversations [0.565395466029518]
本稿では,最近の機械学習に基づくトピックセグメンテーションモデルと同等の精度を達成しようとする。
このタスクで意味のあるものとして認識する機能は、会話の話題構造をよりよく理解するのに役立ちます。
論文 参考訳(メタデータ) (2024-02-05T09:48:07Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Disentangling Online Chats with DAG-Structured LSTMs [55.33014148383343]
DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Online Conversation Disentanglement with Pointer Networks [13.063606578730449]
本稿では,会話の絡み合わせのためのエンドツーエンドのオンラインフレームワークを提案する。
我々は、タイムスタンプ、話者、メッセージテキストを含む全発話を埋め込む新しい手法を設計する。
Ubuntu IRCデータセットを用いた実験により,提案手法はリンクと会話の予測タスクにおいて,最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2020-10-21T15:43:07Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Topic Detection from Conversational Dialogue Corpus with Parallel
Dirichlet Allocation Model and Elbow Method [1.599072005190786]
並列遅延ディリクレアロケーション(PLDA)モデルを用いたトピック検出手法を提案する。
クラスタ内での一貫性の解釈と検証には,Elbow Method を用いた K-mean クラスタリングを用いる。
実験の結果,PLDAとElbow法を組み合わせることで,最適なクラスタ数を選択し,会話のトピックを洗練できることがわかった。
論文 参考訳(メタデータ) (2020-06-05T10:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。