論文の概要: The Persuasive Power of Large Language Models
- arxiv url: http://arxiv.org/abs/2312.15523v1
- Date: Sun, 24 Dec 2023 16:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:37:55.757395
- Title: The Persuasive Power of Large Language Models
- Title(参考訳): 大規模言語モデルの説得力
- Authors: Simon Martin Breum, Daniel V{\ae}dele Egdal, Victor Gram Mortensen,
Anders Giovanni M{\o}ller, Luca Maria Aiello
- Abstract要約: 気候変動をテーマとした総合的な説得対話シナリオを設計する。
支配者」エージェントは「懐疑的」エージェントに対して説得力のある議論を生成し、その後、議論が内部の意見状態を変えたかどうかを評価する。
我々は,機械による議論の説得力を評価するために,人間の裁判官に依頼する。
以上の結果から,オンラインソーシャルメディアにおける意見形成過程において,人工エージェントが重要な役割を果たす可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing capability of Large Language Models to act as human-like
social agents raises two important questions in the area of opinion dynamics.
First, whether these agents can generate effective arguments that could be
injected into the online discourse to steer the public opinion. Second, whether
artificial agents can interact with each other to reproduce dynamics of
persuasion typical of human social systems, opening up opportunities for
studying synthetic social systems as faithful proxies for opinion dynamics in
human populations. To address these questions, we designed a synthetic
persuasion dialogue scenario on the topic of climate change, where a
'convincer' agent generates a persuasive argument for a 'skeptic' agent, who
subsequently assesses whether the argument changed its internal opinion state.
Different types of arguments were generated to incorporate different linguistic
dimensions underpinning psycho-linguistic theories of opinion change. We then
asked human judges to evaluate the persuasiveness of machine-generated
arguments. Arguments that included factual knowledge, markers of trust,
expressions of support, and conveyed status were deemed most effective
according to both humans and agents, with humans reporting a marked preference
for knowledge-based arguments. Our experimental framework lays the groundwork
for future in-silico studies of opinion dynamics, and our findings suggest that
artificial agents have the potential of playing an important role in collective
processes of opinion formation in online social media.
- Abstract(参考訳): 人間のような社会的エージェントとして機能する大規模言語モデルの能力の増大は、意見力学の分野で2つの重要な疑問を提起する。
まず、これらのエージェントがオンラインの談話に注入され、世論をコントロールできる効果的な議論を生成できるかどうか。
第二に、人工エージェントが相互に相互作用し、人間の社会システムに典型的な説得のダイナミクスを再現できるかどうかは、人間の集団における意見力学の忠実なプロキシとして合成社会システムを研究する機会を開く。
これらの問題に対処するため,我々は気候変動の話題に関する総合的説得対話シナリオを設計し,そこでは,「コンテナ」エージェントが「懐疑的」エージェントに対して説得的議論を発生させ,その議論が内部の意見状態を変えたかどうかを評価する。
異なるタイプの議論が生成され、意見変化の心理言語学理論を支える異なる言語次元が取り入れられた。
そして、人間裁判官に機械による議論の説得性を評価するよう依頼した。
事実知識、信頼の指標、支援の表現、伝達状態などを含む議論は、人間とエージェントの両方によって最も効果的と見なされ、人間は知識に基づく議論に顕著な選好を報告した。
筆者らの実験的枠組みは,今後の意見動態の基盤となるものであり,オンラインソーシャルメディアにおける意見形成の集合過程において,人工エージェントが重要な役割を果たす可能性が示唆されている。
関連論文リスト
- Debate-to-Write: A Persona-Driven Multi-Agent Framework for Diverse Argument Generation [25.43678472601801]
議論記述のためのペルソナベースのマルチエージェントフレームワークを提案する。
人間の議論に触発されて、我々はまず各エージェントに、その高いレベルの信念を表すペルソナを、ユニークな視点から割り当てる。
次にエージェントインタラクションプロセスを設計し、エージェントが協調して議論し、議論書の全体計画を形成するアイデアを議論できるようにします。
論文 参考訳(メタデータ) (2024-06-28T04:21:20Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - The Future of Cognitive Strategy-enhanced Persuasive Dialogue Agents:
New Perspectives and Trends [23.68567141617251]
我々は、いくつかの基本的な認知心理学理論を提示し、3つの典型的な認知戦略の形式化された定義を与える。
本稿では,CogAgentの基盤となる形式的定義を取り入れた新しいシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T07:28:34Z) - On the Discussion of Large Language Models: Symmetry of Agents and
Interplay with Prompts [51.3324922038486]
本稿では,プロンプトの相互作用と議論機構の実証結果について報告する。
また、コンピュートとマージに基づくスケーラブルな議論機構も提案している。
論文 参考訳(メタデータ) (2023-11-13T04:56:48Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Strategic Argumentation Dialogues for Persuasion: Framework and
Experiments Based on Modelling the Beliefs and Concerns of the Persuadee [6.091096843566857]
特定の対話において議論が良いかどうかを決定するための2つの重要な次元は、意図する観衆が議論と反論を信じる程度であり、議論が意図する観衆の関心に与える影響である。
本稿では,これらのモデルを用いて,説得的対話における移動の選択を最適化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-28T08:49:24Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。