論文の概要: Voice Interaction With Conversational AI Could Facilitate Thoughtful Reflection and Substantive Revision in Writing
- arxiv url: http://arxiv.org/abs/2504.08687v1
- Date: Fri, 11 Apr 2025 16:54:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:17.480414
- Title: Voice Interaction With Conversational AI Could Facilitate Thoughtful Reflection and Substantive Revision in Writing
- Title(参考訳): 会話型AIによる音声対話は、文章の思考と実体的修正を促進する
- Authors: Jiho Kim, Philippe Laban, Xiang 'Anthony' Chen, Kenneth C. Arnold,
- Abstract要約: よく書くには、アイデアを表現するだけでなく、リフレクションによって促進されるプロセスであるリビジョンを通じてそれらを洗練する必要がある。
近年の多モード大言語モデル(LLM)の進歩は、対話的で表現力のある音声ベースのリフレクションをサポートする新しい可能性を提供している。
音声による対話は、この会話交換を自然に促進し、高次関心事への作家の関与を促進することができると我々は主張する。
- 参考スコア(独自算出の注目度): 23.89410974646694
- License:
- Abstract: Writing well requires not only expressing ideas but also refining them through revision, a process facilitated by reflection. Prior research suggests that feedback delivered through dialogues, such as those in writing center tutoring sessions, can help writers reflect more thoughtfully on their work compared to static feedback. Recent advancements in multi-modal large language models (LLMs) now offer new possibilities for supporting interactive and expressive voice-based reflection in writing. In particular, we propose that LLM-generated static feedback can be repurposed as conversation starters, allowing writers to seek clarification, request examples, and ask follow-up questions, thereby fostering deeper reflection on their writing. We argue that voice-based interaction can naturally facilitate this conversational exchange, encouraging writers' engagement with higher-order concerns, facilitating iterative refinement of their reflections, and reduce cognitive load compared to text-based interactions. To investigate these effects, we propose a formative study exploring how text vs. voice input influence writers' reflection and subsequent revisions. Findings from this study will inform the design of intelligent and interactive writing tools, offering insights into how voice-based interactions with LLM-powered conversational agents can support reflection and revision.
- Abstract(参考訳): よく書くには、アイデアを表現するだけでなく、リフレクションによって促進されるプロセスであるリビジョンを通じてそれらを洗練する必要がある。
以前の研究は、インタラクトによるフィードバック、例えばセンターのチュータリングセッションを通じて得られるフィードバックは、静的フィードバックよりも作家が自分の仕事に対してより慎重に反映するのに役立つことを示唆していた。
近年の多モード大言語モデル(LLM)の進歩は、対話的で表現力のある音声ベースのリフレクションをサポートする新しい可能性を提供している。
特に,LLM生成した静的フィードバックを会話開始者として再利用し,著者が明確化を求め,サンプルを要求し,フォローアップ質問をすることができることを提案する。
音声によるインタラクションは、この会話交換を自然に促進し、高次の関心事へのライターの関与を促し、リフレクションの反復的改善を促進し、テキストベースのインタラクションと比較して認知負荷を減らすことができると我々は主張する。
これらの効果を調べるために,テキスト対音声入力が著者のリフレクションやその後のリフレクションにどのように影響するかを探索するフォーマティブな研究を提案する。
この研究から得られた知見は、知的で対話的な筆記ツールの設計に役立ち、LLMによる会話エージェントとの音声による対話が、リフレクションとリフレクションをどのようにサポートするかについての洞察を提供する。
関連論文リスト
- Leveraging Chain of Thought towards Empathetic Spoken Dialogue without Corresponding Question-Answering Data [33.85748258158527]
共感的対話は人間とコンピュータの自然な相互作用に不可欠である。
大規模言語モデル(LLM)は、その強力な能力を活用して対話生成に革命をもたらした。
本稿では,質問応答データの必要性を回避する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-19T04:10:53Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - "My Grade is Wrong!": A Contestable AI Framework for Interactive Feedback in Evaluating Student Essays [6.810086342993699]
本稿では,対話型フィードバックを自動生成するContestable AI Empowered LLM FrameworkであるCAELFを紹介する。
CAELFは、マルチエージェントシステムと計算的議論を統合することで、学生がフィードバックをクエリし、挑戦し、明確化することができる。
ユーザスタディを用いた500の批判的思考エッセイのケーススタディでは,CAELFが対話的フィードバックを大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-09-11T17:59:01Z) - Joint Learning of Context and Feedback Embeddings in Spoken Dialogue [3.8673630752805446]
コントラスト学習目標を用いて,同じ表現空間に短い対話コンテキストとフィードバック応答を埋め込む可能性を検討する。
実験結果から,本モデルは人間に同じランキングタスクを施し,学習された埋め込みはフィードバック応答の会話機能に関する情報を伝達することがわかった。
論文 参考訳(メタデータ) (2024-06-11T14:22:37Z) - Mimetic Poet [6.999740786886536]
本稿では,創造的思考を促進するために生成AIを用いた新しいデバイスの設計と初期評価について述べる。
参加者は、デバイス表面に言葉を物理的に配置することで、短い詩文を作成できる。
テキストを構成する際、システムは大きな言語モデル(LLM)を使用して、e-ink画面に表示される応答を生成する。
論文 参考訳(メタデータ) (2024-06-04T02:50:15Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Creativity Support in the Age of Large Language Models: An Empirical
Study Involving Emerging Writers [33.3564201174124]
経験的ユーザスタディを通じて,プロのライターを支援するため,現代の大規模言語モデルの有用性について検討する。
筆者らは3種類の認知活動の全てにLLMの助けを求める一方で、LLMは翻訳やレビューに役立ちます。
論文 参考訳(メタデータ) (2023-09-22T01:49:36Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。