論文の概要: Understanding Persuasive Interactions between Generative Social Agents and Humans: The Knowledge-based Persuasion Model (KPM)
- arxiv url: http://arxiv.org/abs/2602.11483v1
- Date: Thu, 12 Feb 2026 01:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.59969
- Title: Understanding Persuasive Interactions between Generative Social Agents and Humans: The Knowledge-based Persuasion Model (KPM)
- Title(参考訳): 生成的社会的エージェントと人間との説得的相互作用を理解する:知識に基づく説得モデル(KPM)
- Authors: Stephan Vonschallen, Friederike Eyssel, Theresa Schmiedel,
- Abstract要約: ジェネレーティブソーシャルエージェント(GSA)は、人工知能を使用して、人間のユーザと自律的に通信する。
理論的枠組みとして知識に基づく説得モデル(KPM)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative social agents (GSAs) use artificial intelligence to autonomously communicate with human users in a natural and adaptive manner. Currently, there is a lack of theorizing regarding interactions with GSAs, and likewise, few guidelines exist for studying how they influence user attitudes and behaviors. Consequently, we propose the Knowledge-based Persuasion Model (KPM) as a novel theoretical framework. According to the KPM, a GSA's self, user, and context-related knowledge drives its persuasive behavior, which in turn shapes the attitudes and behaviors of a responding human user. By synthesizing existing research, the model offers a structured approach to studying interactions with GSAs, supporting the development of agents that motivate rather than manipulate humans. Accordingly, the KPM encourages the integration of responsible GSAs that adhere to social norms and ethical standards with the goal of increasing user wellbeing. Implications of the KPM for research and application domains such as healthcare and education are discussed.
- Abstract(参考訳): ジェネレーティブソーシャルエージェント(GSA)は、人工知能を使用して、自然かつ適応的な方法で人間のユーザーと自律的にコミュニケーションする。
現在、GSAとの相互作用に関する理論の欠如や、ユーザーの態度や行動にどのように影響するかを研究するためのガイドラインがほとんど存在しない。
そこで本研究では,知識に基づく説得モデル(KPM)を理論的枠組みとして提案する。
KPMによると、GSAの自己、ユーザ、コンテキストに関する知識は、その説得的行動を促進する。
既存の研究を合成することで、GSAとの相互作用を研究するための構造的なアプローチを提供し、人間を操るよりも動機づけるエージェントの開発を支援する。
したがって、KPMは、社会的規範と倫理的基準を遵守する責任あるGSAの統合を、ユーザーの幸福を高めることを目的として奨励している。
医療・教育などの研究・応用分野におけるKPMの意義について論じる。
関連論文リスト
- AI Agent Behavioral Science [29.262537008412412]
AIエージェント行動科学は、行動の体系的な観察、仮説をテストするための介入の設計、そしてAIエージェントが時間とともにどのように行動し、適応し、相互作用するかの理論的指導による解釈に焦点を当てている。
我々は、個々のエージェント、マルチエージェント、人間とエージェントのインタラクション設定にまたがる研究の体系化を行い、この視点が、公正さ、安全性、解釈可能性、説明責任、プライバシーを行動特性として扱うことによって、責任あるAIにどのように影響を与えるかを実証する。
論文 参考訳(メタデータ) (2025-06-04T08:12:32Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Agent Teaming Situation Awareness (ATSA): A Situation Awareness
Framework for Human-AI Teaming [10.712812672157611]
本稿では,主要なSA理論モデルとHAT文脈におけるSAのための新しいフレームワークについてレビューする。
Agent Teaming situation Awareness (ATSA)フレームワークは、人間とAIの振る舞いを統一し、双方向、動的相互作用を含む。
論文 参考訳(メタデータ) (2023-08-31T15:02:01Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。