論文の概要: Prototypical Human-AI Collaboration Behaviors from LLM-Assisted Writing in the Wild
- arxiv url: http://arxiv.org/abs/2505.16023v1
- Date: Wed, 21 May 2025 21:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.910518
- Title: Prototypical Human-AI Collaboration Behaviors from LLM-Assisted Writing in the Wild
- Title(参考訳): LLMによる野生におけるヒトとAIの協調行動
- Authors: Sheshera Mysore, Debarati Das, Hancheng Cao, Bahareh Sarrafzadeh,
- Abstract要約: 大規模言語モデル(LLM)は、複雑な記述において、ニーズに合うように世代を操るために使用される。
本研究では,タスク作成に携わるユーザを対象に,この協調行動の大規模分析を行う。
そこで本研究では,LLMとユーザが対話する際の特徴的行動の同定を行った。
- 参考スコア(独自算出の注目度): 10.23533525266164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As large language models (LLMs) are used in complex writing workflows, users engage in multi-turn interactions to steer generations to better fit their needs. Rather than passively accepting output, users actively refine, explore, and co-construct text. We conduct a large-scale analysis of this collaborative behavior for users engaged in writing tasks in the wild with two popular AI assistants, Bing Copilot and WildChat. Our analysis goes beyond simple task classification or satisfaction estimation common in prior work and instead characterizes how users interact with LLMs through the course of a session. We identify prototypical behaviors in how users interact with LLMs in prompts following their original request. We refer to these as Prototypical Human-AI Collaboration Behaviors (PATHs) and find that a small group of PATHs explain a majority of the variation seen in user-LLM interaction. These PATHs span users revising intents, exploring texts, posing questions, adjusting style or injecting new content. Next, we find statistically significant correlations between specific writing intents and PATHs, revealing how users' intents shape their collaboration behaviors. We conclude by discussing the implications of our findings on LLM alignment.
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑な記述ワークフローで使用されるため、ユーザはニーズに合うように世代を操るためにマルチターンインタラクションに従事します。
受動的に出力を受け入れるのではなく、ユーザは積極的に洗練し、探索し、共同構築する。
我々は、Bing CopilotとWildChatという2つの人気のあるAIアシスタントを使って、この協調行動の大規模分析を行っている。
我々の分析は、従来の作業に共通する単純なタスク分類や満足度推定に留まらず、セッションを通じてユーザがLLMとどのように相互作用するかを特徴付ける。
そこで本研究では,LLMとユーザが対話する際の特徴的行動の同定を行った。
我々はこれらをPTH(Prototypeal Human-AI Collaboration Behaviors)と呼び、少数のPATHグループがユーザとLLMの相互作用で見られるばらつきのほとんどを説明する。
これらのPATHは、意図の修正、テキストの探索、質問のポーズ、スタイルの調整、あるいは新しいコンテンツの注入などを行う。
次に、特定の書き込み意図とPATHの間に統計的に有意な相関関係が見られ、ユーザの意図が協調行動をどのように形成するかを明らかにする。
LLMアライメントにおける本研究の意義を論じて結論を導いた。
関連論文リスト
- Understanding Learner-LLM Chatbot Interactions and the Impact of Prompting Guidelines [9.834055425277874]
本研究は,学習者とAIの相互作用を,参加者が効果的なプロンプトの構造化指導を受ける教育実験を通して調査する。
ユーザの行動を評価し,有効性を促進するために,107人のユーザから642のインタラクションのデータセットを解析した。
我々の研究は、ユーザーが大規模言語モデルとどのように関わり、AI支援コミュニケーションを強化するための構造化された指導の役割についてより深く理解している。
論文 参考訳(メタデータ) (2025-04-10T15:20:43Z) - Dynamic benchmarking framework for LLM-based conversational data capture [0.0]
本稿では,大規模言語モデル(LLM)を評価するためのベンチマークフレームワークを提案する。
生成エージェントシミュレーションを統合して、情報抽出、コンテキスト認識、適応エンゲージメントといった重要次元のパフォーマンスを評価する。
その結果,不明瞭な応答を扱う場合,適応戦略によりデータの抽出精度が向上することが示唆された。
論文 参考訳(メタデータ) (2025-02-04T15:47:47Z) - Collaborative Instance Object Navigation: Leveraging Uncertainty-Awareness to Minimize Human-Agent Dialogues [54.81155589931697]
協調インスタンスオブジェクトナビゲーション(CoIN)は、エージェントがターゲットインスタンスに関する不確実性を積極的に解決する新しいタスク設定である。
未認識者に対するエージェント・ユーザインタラクション(AIUTA)の新たな学習自由化手法を提案する。
まず、オブジェクト検出時に、セルフクエチオナーモデルがエージェント内で自己対話を開始し、完全かつ正確な観察記述を得る。
インタラクショントリガーモジュールは、人間に質問するか、継続するか、ナビゲーションを停止するかを決定する。
論文 参考訳(メタデータ) (2024-12-02T08:16:38Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [23.226164112909643]
User-LLMは、ユーザ埋め込みを利用して、大きな言語モデルとユーザ履歴の相互作用を直接コンテキスト化する新しいフレームワークである。
提案手法では,ユーザタイムラインを直接埋め込みとして表現することで,最大78.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。