論文の概要: A Crowdsourced Study of ChatBot Influence in Value-Driven Decision Making Scenarios
- arxiv url: http://arxiv.org/abs/2511.15857v1
- Date: Wed, 19 Nov 2025 20:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.368497
- Title: A Crowdsourced Study of ChatBot Influence in Value-Driven Decision Making Scenarios
- Title(参考訳): 価値駆動型意思決定シナリオにおけるチャットボットの影響に関するクラウドソーシング研究
- Authors: Anthony Wise, Xinyi Zhou, Martin Reimann, Anind Dey, Leilani Battle,
- Abstract要約: 世論を形成するソーシャルメディアボットと同様、ChatGPTのようなチャットボットはユーザーに行動を変えるよう説得する。
我々はクラウドソースによる調査を行い、336人の参加者が2つの価値枠のChatBotのうちの1つと相互作用し、米国の防衛費を変更することを決定した。
フレームが自分の価値観と一致しない場合、一部の参加者は元の好みを補強した。
- 参考スコア(独自算出の注目度): 8.230880820861133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Similar to social media bots that shape public opinion, healthcare and financial decisions, LLM-based ChatBots like ChatGPT can persuade users to alter their behavior. Unlike prior work that persuades via overt-partisan bias or misinformation, we test whether framing alone suffices. We conducted a crowdsourced study, where 336 participants interacted with a neutral or one of two value-framed ChatBots while deciding to alter US defense spending. In this single policy domain with controlled content, participants exposed to value-framed ChatBots significantly changed their budget choices relative to the neutral control. When the frame misaligned with their values, some participants reinforced their original preference, revealing a potentially replicable backfire effect, originally considered rare in the literature. These findings suggest that value-framing alone lowers the barrier for manipulative uses of LLMs, revealing risks distinct from overt bias or misinformation, and clarifying risks to countering misinformation.
- Abstract(参考訳): ソーシャルメディアのボットが世論やヘルスケア、金融決定を形作るのと同じように、ChatGPTのようなLLMベースのチャットボットは、ユーザーに行動を変えるよう説得する。
過度な党派偏見や誤情報を通じて説得する以前の作業とは異なり、フレーミングだけで十分かどうかをテストする。
我々はクラウドソースによる調査を行い、336人の参加者が2つの価値枠のChatBotのうちの1つと相互作用し、米国の防衛費を変更することを決定した。
コントロールされたコンテンツを持つこの単一のポリシードメインでは、バリューフレームのChatBotに晒された参加者は、中立的なコントロールに対する予算選択を大きく変えた。
フレームが彼らの価値観と一致していない場合、一部の参加者は元の好みを補強し、もともと文献で稀なものと思われていた、潜在的にレプリカ可能なバックファイア効果を明らかにした。
これらの結果から, 価値フレーミング単独は, LLMの操作的使用の障壁を低くし, 過度なバイアスや誤情報とは異なるリスクを明らかにし, 誤情報に対するリスクを明らかにすることが示唆された。
関連論文リスト
- Evaluating & Reducing Deceptive Dialogue From Language Models with Multi-turn RL [64.3268313484078]
大規模言語モデル(LLM)は、顧客サポート、教育、医療など、世界中の何百万もの人々と対話する。
故意であれ不注意であれ、偽りのアウトプットを生産する能力は、重大な安全上の懸念を生じさせる。
本研究では, LLM が会話中の偽装にどの程度関与しているかを考察し, 偽装を定量化する信念の誤調整尺度を提案する。
論文 参考訳(メタデータ) (2025-10-16T05:29:36Z) - LLM-Based Bot Broadens the Range of Arguments in Online Discussions, Even When Transparently Disclosed as AI [5.393664305233901]
本研究では,LLMをベースとしたロボットが,参加者がオンラインディスカッションで表現する視点の範囲を拡大できるかどうかを検討する。
議論を積極的に監視し、欠落した議論を特定し、会話に導入するボットの効果を評価する。
その結果,ロボットは主観的指標と主観的指標の両方で測定されるように,議論の範囲を大きく広げることがわかった。
論文 参考訳(メタデータ) (2025-06-20T15:24:31Z) - ChatbotManip: A Dataset to Facilitate Evaluation and Oversight of Manipulative Chatbot Behaviour [11.86454511458083]
大規模言語モデル(LLM)は明示的に指示されたときに操作可能である。
BERT+BiLSTMのような小さな微調整されたオープンソースモデルは、ゼロショット分類に匹敵する性能を持つ。
我々の研究は、LCMがますますコンシューマ向けアプリケーションにデプロイされるにつれて、操作リスクに対処する必要性を強調しています。
論文 参考訳(メタデータ) (2025-06-11T14:29:43Z) - Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards [93.16294577018482]
このタイプの最も人気のあるベンチマークであるArenaは、ランダムに選択された2つのモデル間のより良いレスポンスを選択するようユーザに求めることで、モデルをランク付けする。
攻撃者は、約1000票の費用で、リーダーボードを変更できる(お気に入りのモデルを宣伝したり、ライバルを降格させる)。
私たちの攻撃は2つのステップで構成されている。まず、攻撃者が95%以上の精度で特定の応答を生成するためにどのモデルを使用したかを決定する方法を示し、次に、攻撃者はこの情報を使ってターゲットモデルに対して一貫して投票することができる。
論文 参考訳(メタデータ) (2025-01-13T17:12:38Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference [48.99117537559644]
人間の好みに基づいた大規模言語モデル(LLM)を評価するオープンプラットフォームであるArenaを紹介する。
本手法は,クラウドソーシングを通じて,多種多様なユーザベースからのインプットを活用する。
本稿では,このプラットフォームについて述べるとともに,これまでに収集したデータを分析し,実際に使用している統計的手法について説明する。
論文 参考訳(メタデータ) (2024-03-07T01:22:38Z) - In Generative AI we Trust: Can Chatbots Effectively Verify Political
Information? [39.58317527488534]
本稿では,2つの大規模言語モデル(LLM)ベースのチャットボットであるChatGPTとBing Chatの比較分析を行い,政治的情報の正確性を検出する。
AI監査手法を使用して、新型コロナウイルス、ロシアによるウクライナに対する攻撃、ホロコースト、気候変動、LGBTQ+関連の議論の5つのトピックについて、チャットボットが真、偽、および境界線をどう評価するかを調査する。
その結果, ベースライン精度評価タスクにおけるChatGPTの性能が向上し, 72%のケースが事前学習なしで言語平均で正しく評価された。
論文 参考訳(メタデータ) (2023-12-20T15:17:03Z) - Discovering Chatbot's Self-Disclosure's Impact on User Trust, Affinity,
and Recommendation Effectiveness [39.240553429989674]
我々は3つの自己開示レベルを持つソーシャルボットを設計し、小さな講演を行い、人々に適切なレコメンデーションを提供した。
372人のMTurk参加者が、映画と新型コロナウイルスの2つの話題でボットと会話するために、異なる自己開示レベルを持つ4つのグループのうちの1つにランダム化された。
論文 参考訳(メタデータ) (2021-06-03T08:16:25Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。