論文の概要: AI Chaperones Are (Really) All You Need to Prevent Parasocial Relationships with Chatbots
- arxiv url: http://arxiv.org/abs/2508.15748v5
- Date: Tue, 02 Sep 2025 16:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.662953
- Title: AI Chaperones Are (Really) All You Need to Prevent Parasocial Relationships with Chatbots
- Title(参考訳): AIチャペロンは、チャットボットと対人関係を防げるために必要なもの
- Authors: Emma Rath, Stuart Armstrong, Rebecca Gorman,
- Abstract要約: 本稿では,AIシャペロンエージェントを用いたシンプルな応答評価フレームワークを提案する。
5段階試験による反復的評価は,全社交会話の特定に成功し,一様規則下での偽陽性を避けた。
これらの結果は、AIシャペロンが対人関係のリスクを減らすための有効な解決策であることを示す予備的な証拠となる。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emerging reports of the harms caused to children and adults by AI sycophancy and by parasocial ties with chatbots point to an urgent need for safeguards against such risks. Yet, preventing such dynamics is challenging: parasocial cues often emerge gradually in private conversations between chatbots and users, and we lack effective methods to mitigate these risks. We address this challenge by introducing a simple response evaluation framework (an AI chaperone agent) created by repurposing a state-of-the-art language model to evaluate ongoing conversations for parasocial cues. We constructed a small synthetic dataset of thirty dialogues spanning parasocial, sycophantic, and neutral conversations. Iterative evaluation with five-stage testing successfully identified all parasocial conversations while avoiding false positives under a unanimity rule, with detection typically occurring within the first few exchanges. These findings provide preliminary evidence that AI chaperones can be a viable solution for reducing the risk of parasocial relationships.
- Abstract(参考訳): 子どもや大人が、AIの梅毒や、チャットボットとの社交的な結びつきによって引き起こされる害に関する新たな報告は、このようなリスクに対して緊急に安全を守る必要があることを示唆している。
しかし、このようなダイナミクスを防ぐことは難しい: チャットボットとユーザ間のプライベートな会話において、パラソーシャルな手がかりが徐々に出現し、これらのリスクを軽減する効果的な方法が欠如している。
この課題に対処するために、最先端の言語モデルを再利用し、パラ社会的手がかりに関する継続的な会話を評価することで、シンプルな応答評価フレームワーク(AIシャペロンエージェント)を導入する。
パラソナリカル,サイコファンティック,中立的な会話にまたがる30の対話の小さな合成データセットを構築した。
5段階テストによる反復的評価は、一様性規則の下で偽陽性を回避しつつ、すべての対社会的会話の特定に成功し、通常、最初の数回の交換で検出される。
これらの結果は、AIシャペロンが対人関係のリスクを減らすための有効な解決策であることを示す予備的な証拠となる。
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - AudioInsight: Detecting Social Contexts Relevant to Social Anxiety from Speech [10.648118103594586]
本研究では,環境音節を利用して社会的脅威の文脈を検出する手法を提案する。
我々は、相互作用パートナーの数(ダイアディック対グループ)と評価脅威の度合いの2つの重要な側面に焦点を当てる。
試料幅5倍のCross Validation (CV) では,90%の精度でグループ間相互作用からDyadicを識別し,83%で評価的脅威を検出できた。
論文 参考訳(メタデータ) (2024-07-19T17:01:12Z) - Persona Extraction Through Semantic Similarity for Emotional Support
Conversation Generation [45.21373213960324]
PESS(Persona extract through Semantic similarity)は,対話から情報的かつ一貫したペルソナを自動的に推測できる新しいフレームワークである。
PESSによって推定される高品質のペルソナ情報が,情緒的支援反応の生成に有効であることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-03-07T04:33:11Z) - Improving Dialog Safety using Socially Aware Contrastive Learning [8.503001932363704]
対人・カジュアル・ダイアログの文脈における社会性について検討する。
これらの問題に対処するための2段階の微調整プロセスを提案する。
私たちは、Moral Integrity Corpus(MIC)やProsocialDialogといったデータセットを活用することで、社会行動を統合するベースモデルをトレーニングします。
論文 参考訳(メタデータ) (2024-02-01T09:24:33Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Wearable Sensor-based Multimodal Physiological Responses of Socially
Anxious Individuals across Social Contexts [7.85990334927929]
本研究では,様々な社会的文脈で生理的応答を評価する実験を対象とし,受動的に収集したデータを用いて実験を行った。
以上の結果から,社会的文脈は社会的相,集団規模,社会的脅威のレベルよりも確実に識別可能であることが示唆された。
論文 参考訳(メタデータ) (2023-04-03T18:34:54Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - ProsocialDialog: A Prosocial Backbone for Conversational Agents [104.92776607564583]
ProsocialDialogは、対話エージェントに社会規範に従って問題コンテンツに応答するように教える最初の大規模対話データセットである。
ProsocialDialogは、人間とAIのコラボレーションフレームワークで作られ、58Kの対話と331Kの発話、160KのRoT、および497Kの対話安全ラベルで構成されている。
本データセットでは,対話型安全性検出モジュールであるCanaryを導入し,会話コンテキストを指定したRoTを生成するとともに,社会的にインフォームドされた対話エージェントであるProstを導入する。
論文 参考訳(メタデータ) (2022-05-25T11:48:47Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。