論文の概要: AURA: A Reinforcement Learning Framework for AI-Driven Adaptive Conversational Surveys
- arxiv url: http://arxiv.org/abs/2510.27126v1
- Date: Fri, 31 Oct 2025 03:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.958725
- Title: AURA: A Reinforcement Learning Framework for AI-Driven Adaptive Conversational Surveys
- Title(参考訳): AURA:AI駆動型Adaptive Conversational Surveyのための強化学習フレームワーク
- Authors: Jinwen Tang, Yi Shang,
- Abstract要約: AURA(Adaptive Understanding through Reinforcement Learning for Assessment)はAIによる適応的会話調査のための強化学習フレームワークである。
AURAは、4次元のLSDEメトリックを用いて応答品質を定量化し、フォローアップ質問タイプを選択する。
制御された評価では,AURAは応答品質の+0.12平均ゲインを達成し,非適応的ベースラインよりも統計的に有意な改善を示した。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional online surveys provide limited personalization, often resulting in low engagement and superficial responses. Although AI survey chatbots improve convenience, most are still reactive: they rely on fixed dialogue trees or static prompt templates and therefore cannot adapt within a session to fit individual users, which leads to generic follow-ups and weak response quality. We address these limitations with AURA (Adaptive Understanding through Reinforcement Learning for Assessment), a reinforcement learning framework for AI-driven adaptive conversational surveys. AURA quantifies response quality using a four-dimensional LSDE metric (Length, Self-disclosure, Emotion, and Specificity) and selects follow-up question types via an epsilon-greedy policy that updates the expected quality gain within each session. Initialized with priors extracted from 96 prior campus-climate conversations (467 total chatbot-user exchanges), the system balances exploration and exploitation across 10-15 dialogue exchanges, dynamically adapting to individual participants in real time. In controlled evaluations, AURA achieved a +0.12 mean gain in response quality and a statistically significant improvement over non-adaptive baselines (p=0.044, d=0.66), driven by a 63% reduction in specification prompts and a 10x increase in validation behavior. These results demonstrate that reinforcement learning can give survey chatbots improved adaptivity, transforming static questionnaires into interactive, self-improving assessment systems.
- Abstract(参考訳): 従来のオンライン調査では、個人化が限られており、しばしばエンゲージメントが低く、表面的な反応をもたらす。
AIサーベイチャットボットの利便性は向上するが、ほとんどの場合まだリアクティブである。それらは固定されたダイアログツリーや静的プロンプトテンプレートに依存しているため、個々のユーザに合わせてセッション内に適応できないため、一般的なフォローアップと応答品質の低下につながる。
我々はAI駆動型適応会話調査のための強化学習フレームワークであるAURA(Adaptive Understanding through Reinforcement Learning for Assessment)を用いて,これらの制限に対処する。
AURAは、4次元LSDEメトリック(長さ、自己開示、感情、特定性)を用いて応答品質を定量化し、各セッションで期待される品質向上を更新するエプシロングレーディポリシーを介してフォローアップ質問タイプを選択する。
大学構内における96の事前会話(467件のチャットボット-ユーザ交換)から抽出された事前会話から初期化され、システムは10~15の対話交換における探索と利用のバランスをとり、個々の参加者に対してリアルタイムで動的に適応する。
制御された評価では、AURAは応答品質の+0.12平均ゲインを達成し、非適応ベースライン(p=0.044, d=0.66)に対する統計的に有意な改善を実現した。
これらの結果から,強化学習は適応性を向上し,静的アンケートを対話型自己改善型アセスメントシステムに変換することが示唆された。
関連論文リスト
- Pathways of Thoughts: Multi-Directional Thinking for Long-form Personalized Question Answering [57.12316804290369]
ユーザ固有の情報ニーズに質問応答システムを適用するためには,パーソナライゼーションが不可欠である。
本稿では,タスク固有の微調整を必要とせず,任意の大規模言語モデル (LLM) に適用可能な推論段階の方法として,思考の経路 (PoT) を提案する。
PoTは競争ベースラインを一貫して上回り、13.1%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2025-09-23T14:44:46Z) - HumAIne-Chatbot: Real-Time Personalized Conversational AI via Reinforcement Learning [0.4931504898146351]
textbfHumAIne-chatbotはAIによる会話エージェントで、新しいユーザプロファイリングフレームワークを通じて応答をパーソナライズする。
ライブインタラクションの間、オンライン強化学習エージェントは暗黙の信号を組み合わせることで、ユーザ毎のモデルを洗練する。
その結果、パーソナライズ機能を有効にすると、ユーザ満足度、パーソナライズ精度、タスク達成度が一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-09-04T15:16:38Z) - TestAgent: An Adaptive and Intelligent Expert for Human Assessment [62.060118490577366]
対話型エンゲージメントによる適応テストを強化するために,大規模言語モデル(LLM)を利用したエージェントであるTestAgentを提案する。
TestAgentは、パーソナライズされた質問の選択をサポートし、テストテイカーの応答と異常をキャプチャし、動的で対話的なインタラクションを通じて正確な結果を提供する。
論文 参考訳(メタデータ) (2025-06-03T16:07:54Z) - AI-Assisted Conversational Interviewing: Effects on Data Quality and User Experience [0.0]
本研究では,AIによる対話型面接の枠組みを紹介する。
我々は1,800人の参加者をランダムにAI 'チャットボット'に割り当てるウェブサーベイ実験を行った。
この結果から,チャットボットなどのAI手法を用いて,Webサーベイにおけるオープンエンドデータ収集を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-09T13:58:07Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z) - Joint Turn and Dialogue level User Satisfaction Estimation on
Multi-Domain Conversations [6.129731338249762]
ターンレベルと対話レベルのユーザ満足度を推定する現在の自動化手法は手作りの機能を採用している。
適応型マルチタスク損失関数を最小化する新しいユーザ満足度推定手法を提案する。
BiLSTMベースのディープニューラルネットワークモデルは、推定された対話レベル評価に対する各ターンのコントリビューションを自動的に評価する。
論文 参考訳(メタデータ) (2020-10-06T05:53:13Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。