論文の概要: Beyond One-Way Influence: Bidirectional Opinion Dynamics in Multi-Turn Human-LLM Interactions
- arxiv url: http://arxiv.org/abs/2510.20039v1
- Date: Wed, 22 Oct 2025 21:38:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.916469
- Title: Beyond One-Way Influence: Bidirectional Opinion Dynamics in Multi-Turn Human-LLM Interactions
- Title(参考訳): 双方向オピニオンダイナミクスによるマルチターンヒューマン-LLMインタラクションの超越効果
- Authors: Yuyang Jiang, Longjie Guo, Yuchen Wu, Aylin Caliskan, Tanu Mitra, Hua Shen,
- Abstract要約: 大言語モデル(LLM)を利用したチャットボットは、意見探索にますます利用されている。
本研究では,LLMの出力が大幅に変化したのに対して,人間の意見はほとんど変化しなかったかを検討する。
マルチターン会話の分析により、参加者の個人的な物語を含む交流は、人間とLLMの両方に対するスタンスの変化を引き起こす可能性が最も高いことが明らかとなった。
- 参考スコア(独自算出の注目度): 15.551196286270779
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM)-powered chatbots are increasingly used for opinion exploration. Prior research examined how LLMs alter user views, yet little work extended beyond one-way influence to address how user input can affect LLM responses and how such bi-directional influence manifests throughout the multi-turn conversations. This study investigates this dynamic through 50 controversial-topic discussions with participants (N=266) across three conditions: static statements, standard chatbot, and personalized chatbot. Results show that human opinions barely shifted, while LLM outputs changed more substantially, narrowing the gap between human and LLM stance. Personalization amplified these shifts in both directions compared to the standard setting. Analysis of multi-turn conversations further revealed that exchanges involving participants' personal stories were most likely to trigger stance changes for both humans and LLMs. Our work highlights the risk of over-alignment in human-LLM interaction and the need for careful design of personalized chatbots to more thoughtfully and stably align with users.
- Abstract(参考訳): 大言語モデル(LLM)を利用したチャットボットは、意見探索にますます利用されている。
以前の研究では、LLMがユーザビューをどのように変えているかを検討したが、ユーザ入力がLLMの応答にどのように影響するか、そして、その双方向の影響がマルチターン会話全体を通してどのように現れるかに対処するために、一方的な影響を超えて、作業はほとんど行われなかった。
本研究は,静的ステートメント,標準チャットボット,パーソナライズされたチャットボットの3つの条件にまたがって,参加者との50の論争的話題(N=266)を通じて,このダイナミクスを検証した。
その結果、人間の意見はほとんど変化せず、LLMの出力は大幅に変化し、人間とLLMのスタンス間のギャップが狭まることがわかった。
パーソナライゼーションは、標準設定と比較して、これらのシフトを両方向に増幅した。
マルチターン会話の分析により、参加者の個人的な物語を含む交流は、人間とLLMの両方に対するスタンスの変化を引き起こす可能性が最も高いことが明らかとなった。
我々の研究は、人間とLLMのインタラクションにおける過度な調整のリスクと、ユーザーとより慎重に安定して連携するパーソナライズされたチャットボットの設計の必要性を強調している。
関連論文リスト
- Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions [14.21024646209994]
大規模言語モデル(LLM)は、顧客向けアプリケーションにますます多くデプロイされている。
本研究は,2つの設定間でのユーザ言語の文法的流布度,丁寧さ,語彙的多様性に有意な差異が認められた。
打上げ後の通信スタイルの変更に対する堅牢性を高めるために,我々は2つの戦略を実験した。
論文 参考訳(メタデータ) (2025-10-03T00:45:37Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - Can (A)I Change Your Mind? [0.6990493129893112]
研究は200人の参加者とともにヘブライ語で実施され、議論を呼んでいる市民政策のトピックに対するLLMと人間インターロケーターの説得効果を評価した。
以上の結果から,LLMとヒトの視点も同様に採用され,全ての条件において有意な意見の変化が認められた。
これらの知見は, LLMをベースとしたエージェントが, 様々なソースや設定にまたがる堅牢な説得力を示し, 世論形成への潜在的影響を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-03T18:59:54Z) - Examining Identity Drift in Conversations of LLM Agents [5.12659586713042]
本研究では,9つの大言語モデル(LLM)におけるアイデンティティの整合性について検討する。
実験は、質的、定量的な方法で分析された、個人的なテーマに関するマルチターン会話を含む。
論文 参考訳(メタデータ) (2024-12-01T13:19:32Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena [76.21004582932268]
本研究では, LLM-as-a-judgeの使用状況と限界について検討し, 位置, 冗長性, 自己改善バイアスについて検討した。
次に、マルチターン質問セットであるMT-benchとクラウドソースのバトルプラットフォームであるArenaの2つのベンチマークを導入することで、LCMの判断と人間の嗜好の一致を検証する。
論文 参考訳(メタデータ) (2023-06-09T05:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。