論文の概要: Does My Chatbot Have an Agenda? Understanding Human and AI Agency in Human-Human-like Chatbot Interaction
- arxiv url: http://arxiv.org/abs/2601.22452v1
- Date: Fri, 30 Jan 2026 01:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.156205
- Title: Does My Chatbot Have an Agenda? Understanding Human and AI Agency in Human-Human-like Chatbot Interaction
- Title(参考訳): 私のチャットボットはアジェンダを持っているか?人間と人間のようなチャットボット相互作用における人間とAIエージェントを理解する
- Authors: Bhada Yun, Evgenia Taranova, April Yi Wang,
- Abstract要約: 筆者らが構築したLLMコンパニオンであるデイとチャットした22人の成人を対象に,1カ月にわたる縦断的研究を行った。
私たちは、人間とAIのチャットルームにおけるエージェンシーが、創発的で共有された体験であることに気付きました。
我々は、透明なデザイン(すなわち透明性オンデマンド)、代理店交渉のためのスペース、代理店を意識した会話型AIに対するガイドラインを論じる。
- 参考スコア(独自算出の注目度): 9.253070075439746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI chatbots are shifting from tools to companions. This raises critical questions about agency: who drives conversations and sets boundaries in human-AI chatrooms? We report a month-long longitudinal study with 22 adults who chatted with Day, an LLM companion we built, followed by a semi-structured interview with post-hoc elicitation of notable moments, cross-participant chat reviews, and a 'strategy reveal' disclosing Day's vertical (depth-seeking) vs. horizontal (breadth-seeking) modes. We discover that agency in human-AI chatrooms is an emergent, shared experience: as participants claimed agency by setting boundaries and providing feedback, and the AI was perceived to steer intentions and drive execution, control shifted and was co-constructed turn-by-turn. We introduce a 3-by-5 framework mapping who (human, AI, hybrid) x agency action (Intention, Execution, Adaptation, Delimitation, Negotiation), modulated by individual and environmental factors. Ultimately, we argue for translucent design (i.e. transparency-on-demand), spaces for agency negotiation, and guidelines toward agency-aware conversational AI.
- Abstract(参考訳): AIチャットボットは、ツールから仲間へとシフトしている。
これは、人間とAIのチャットルームで誰が会話を駆動し境界を設定するのかという、エージェンシーに関する批判的な疑問を提起する。
筆者らが構築したLLMコンパニオンであるデイとチャットした22人の成人を対象に1ヶ月にわたる縦断的研究を行い、その後、注目の瞬間の半構造化インタビュー、参加者間のチャットレビュー、そしてデイの垂直(深層)と水平(深層)のモードを開示する「ストラテジー・エフェクト」を報告した。
参加者がバウンダリを設定し、フィードバックを提供することによってエージェンシーを主張し、AIは意図を定め、実行を推し進めると認識され、制御がシフトし、ターンバイターンで共構築された。
我々は,人間,AI,ハイブリッド)xエージェンシーの行動(意図,実行,適応,昇降,否定,否定)を個人および環境要因によって変調した3-by-5のフレームワークマッピングを導入する。
究極的には、トランス透明デザイン(すなわち透明性オンデマンド)、代理店交渉のためのスペース、代理店を意識した会話型AIに対するガイドラインについて議論する。
関連論文リスト
- A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts [0.061386715480643554]
チャットボットが実際の人間関係を害したり、置き換えたりするのではないかという懸念が高まっている。
本研究では,人間とAIの相互作用が人間と人間の社会的成果に与える影響について検討した。
論文 参考訳(メタデータ) (2025-09-23T19:33:41Z) - From Human-to-Human to Human-to-Bot Conversations in Software Engineering [3.1747517745997014]
AIとチャットボットの統合後,現代のソフトウェア開発において発生する会話のダイナミクスを理解することを目的としている。
既存の会話属性を人間やNLUベースのチャットボットとコンパイルし、ソフトウェア開発のコンテキストに適応する。
我々は人間同士の会話と人間同士の会話の類似点と相違点を示す。
LLM-chatbotsによる最近の会話スタイルは、人間との会話に取って代わるものではないと結論付けている。
論文 参考訳(メタデータ) (2024-05-21T12:04:55Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。