論文の概要: Word Clouds as Common Voices: LLM-Assisted Visualization of Participant-Weighted Themes in Qualitative Interviews
- arxiv url: http://arxiv.org/abs/2508.07517v1
- Date: Mon, 11 Aug 2025 00:27:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.89354
- Title: Word Clouds as Common Voices: LLM-Assisted Visualization of Participant-Weighted Themes in Qualitative Interviews
- Title(参考訳): 共通音声としての単語雲:質的インタビューにおける参加者重み付きテーマのLLM支援可視化
- Authors: Joseph T. Colonel, Baihan Lin,
- Abstract要約: ThemeCloudsは,対話の書き起こしから主題的,参加者に重み付けされたワードクラウドを生成する,オープンソースの可視化ツールである。
このシステムは、LLMに、コーパス全体で概念レベルのテーマを識別するよう促し、各トピックに言及する参加者の数をカウントする。
5つの記録デバイス構成を比較したユーザスタディのインタビューから,本手法は,周波数雲やトピックモデリングベースラインよりも動作可能なデバイス関心事を明らかにする。
- 参考スコア(独自算出の注目度): 13.971616443394474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word clouds are a common way to summarize qualitative interviews, yet traditional frequency-based methods often fail in conversational contexts: they surface filler words, ignore paraphrase, and fragment semantically related ideas. This limits their usefulness in early-stage analysis, when researchers need fast, interpretable overviews of what participant actually said. We introduce ThemeClouds, an open-source visualization tool that uses large language models (LLMs) to generate thematic, participant-weighted word clouds from dialogue transcripts. The system prompts an LLM to identify concept-level themes across a corpus and then counts how many unique participants mention each topic, yielding a visualization grounded in breadth of mention rather than raw term frequency. Researchers can customize prompts and visualization parameters, providing transparency and control. Using interviews from a user study comparing five recording-device configurations (31 participants; 155 transcripts, Whisper ASR), our approach surfaces more actionable device concerns than frequency clouds and topic-modeling baselines (e.g., LDA, BERTopic). We discuss design trade-offs for integrating LLM assistance into qualitative workflows, implications for interpretability and researcher agency, and opportunities for interactive analyses such as per-condition contrasts (``diff clouds'').
- Abstract(参考訳): 単語クラウドは質的なインタビューを要約する一般的な方法であるが、伝統的な周波数ベースの手法は会話の文脈で失敗することが多い。
これは、研究者が実際に言ったことを素早く解釈可能な概要を必要とする場合、アーリーステージ分析における有用性を制限する。
我々は,多言語モデル (LLM) を用いたオープンソースの可視化ツールであるThemeCloudsを紹介した。
このシステムは、LLMに、コーパス全体で概念レベルのテーマを識別するよう促し、各トピックについて何人のユニークな参加者が言及しているかを数え、生の用語の頻度ではなく、言及の幅に基礎を置いて視覚化する。
研究者はプロンプトと視覚化パラメータをカスタマイズし、透明性とコントロールを提供する。
ユーザによる5つの記録デバイス構成(31名,転写文字155名,Whisper ASR)のインタビューから,本手法は,周波数雲やトピックモデリングベースライン(例えば,LDA,BERTopic)よりも動作可能なデバイス関心事を明らかにする。
本稿では,LCM支援を定性的なワークフローに統合するための設計上のトレードオフ,解釈可能性と研究者エージェンシーへの影響,条件ごとのコントラスト (`diff clouds'') のような対話的分析の機会について論じる。
関連論文リスト
- Detecting Referring Expressions in Visually Grounded Dialogue with Autoregressive Language Models [3.8673630752805446]
本研究の目的は,言語文脈のみが言及の検出にどのような影響を及ぼすかを検討することである。
我々は,事前訓練された大言語モデル (LLM) を用いて,会話の展開における参照スパンの比較的詳細なアノテーションを実行する。
その結果,中程度サイズのLLM,比較的小さなデータセット,パラメータ効率の高い微調整を用いても,テキストのみのアプローチが有効であることが示唆された。
論文 参考訳(メタデータ) (2025-06-26T14:14:20Z) - Multimodal Conversation Structure Understanding [12.29827265137757]
大きな言語モデルでは、きめ細かい会話構造を理解する能力は未解明のままである。
我々は,話者と回答関係のための4,398の注釈付きデータセット,5,755人のアドレナリ,3,142人のサイド参加者を提示する。
音声-視覚的LLMと視覚言語モデルの評価をデータセット上で行い, 実験結果から, マルチモーダル対話構造理解は依然として困難であることが示唆された。
論文 参考訳(メタデータ) (2025-05-23T06:41:54Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Contextual Object Detection with Multimodal Large Language Models [66.15566719178327]
本稿では,コンテキストオブジェクト検出の新たな研究課題について紹介する。
言語クローゼテスト,視覚キャプション,質問応答の3つの代表的なシナリオについて検討した。
本稿では、視覚的コンテキストのエンドツーエンドの微分可能なモデリングが可能な統合マルチモーダルモデルContextDETを提案する。
論文 参考訳(メタデータ) (2023-05-29T17:50:33Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Joint Modelling of Spoken Language Understanding Tasks with Integrated
Dialog History [30.20353302347147]
本研究では,発話の意図,対話行動,話者の役割,感情を共同で予測するために,対話コンテキストを学習する新しいモデルアーキテクチャを提案する。
本実験は,タスク固有分類器と類似した結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-01T16:26:18Z) - Visually-augmented pretrained language models for NLP tasks without
images [77.74849855049523]
既存のソリューションはしばしば視覚的知識増強のために明示的なイメージに依存している。
我々は、新しいtextbfVisually-textbfAugmented fine-tuningアプローチを提案する。
我々のアプローチは、BERT、RoBERTa、BART、T5を異なるスケールで継続的に改善することができる。
論文 参考訳(メタデータ) (2022-12-15T16:13:25Z) - Findings on Conversation Disentanglement [28.874162427052905]
発話から発話への分類と発話からスレッドへの分類を学習する学習モデルを構築した。
Ubuntu IRCデータセットの実験は、このアプローチが従来の欲求的アプローチを上回る可能性があることを示している。
論文 参考訳(メタデータ) (2021-12-10T05:54:48Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。