論文の概要: Users Mispredict Their Own Preferences for AI Writing Assistance
- arxiv url: http://arxiv.org/abs/2601.04461v1
- Date: Thu, 08 Jan 2026 00:33:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.962307
- Title: Users Mispredict Their Own Preferences for AI Writing Assistance
- Title(参考訳): ユーザはAI記述支援のために自分の好みを誤る
- Authors: Vivian Lai, Zana Buçinca, Nil-Jana Akpinar, Mo Houtti, Hyeonsu B. Kang, Kevin Chian, Namjoon Suh, Alex C. Williams,
- Abstract要約: AI記述アシスタントは、ユーザがドラフト支援を希望するタイミングを予測する必要があるが、好みを駆動する要因に関する実証的な理解は欠如している。
構成的努力が決定を支配しているのに対して、緊急性は予測力を示さない。
ユーザーは、最も弱い行動ドライバーであるにもかかわらず、緊急性を自己報告でランク付けする。
- 参考スコア(独自算出の注目度): 14.612245608531182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proactive AI writing assistants need to predict when users want drafting help, yet we lack empirical understanding of what drives preferences. Through a factorial vignette study with 50 participants making 750 pairwise comparisons, we find compositional effort dominates decisions ($ρ= 0.597$) while urgency shows no predictive power ($ρ\approx 0$). More critically, users exhibit a striking perception-behavior gap: they rank urgency first in self-reports despite it being the weakest behavioral driver, representing a complete preference inversion. This misalignment has measurable consequences. Systems designed from users' stated preferences achieve only 57.7\% accuracy, underperforming even naive baselines, while systems using behavioral patterns reach significantly higher 61.3\% ($p < 0.05$). These findings demonstrate that relying on user introspection for system design actively misleads optimization, with direct implications for proactive natural language generation (NLG) systems.
- Abstract(参考訳): プロアクティブなAIライティングアシスタントは、ユーザがドラフト支援を希望するタイミングを予測する必要がありますが、好みを駆動するものに関する経験的な理解は欠如しています。
750対の比較を行う50人の参加者による要因的ヴィグネットによる研究では、構成的努力が決定を支配している(ρ=0.597$)一方、緊急性は予測力を持たない(ρ\approx 0$)。
さらに重要なのは、ユーザは、最も弱い行動ドライバーであるにもかかわらず、自己報告において緊急性を第一にランク付けし、完全な嗜好の逆転を表わすという、目覚ましい行動のギャップを示すことだ。
この不一致は測定可能な結果をもたらす。
ユーザの指定した好みから設計されたシステムは57.7\%の精度しか達成できず、単純なベースラインでも性能が劣る一方、行動パターンを用いたシステムは61.3\%(p < 0.05$)の精度に達する。
これらの結果から,システム設計におけるユーザイントロスペクションへの依存は,プロアクティブ自然言語生成(NLG)システムに直接的な影響を伴って,最適化を積極的に誤解させることが示された。
関連論文リスト
- Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - Addressing Personalized Bias for Unbiased Learning to Rank [56.663619153713434]
Unbiased Learning to rank (ULTR)は、バイアスのあるユーザの行動ログからバイアスのないランキングモデルを学ぶことを目的としている。
そこで本研究では,学習からランクへの目標値を求めるために,新しいユーザ認識逆確率スコア推定器を提案する。
論文 参考訳(メタデータ) (2025-08-28T14:01:31Z) - Active Test-time Vision-Language Navigation [60.69722522420299]
ATENAは、不確実なナビゲーション結果に対するエピソードフィードバックを通じて、実用的な人間とロボットのインタラクションを可能にする、テスト時のアクティブな学習フレームワークである。
特にATENAは、成功エピソードにおける確実性を高め、失敗エピソードにおいてそれを減らすことを学び、不確実性の校正を改善している。
さらに,自信ある予測に基づいて,エージェントがナビゲーション結果を評価することができる自己学習戦略を提案する。
論文 参考訳(メタデータ) (2025-06-07T02:24:44Z) - Let Them Down Easy! Contextual Effects of LLM Guardrails on User Perceptions and Preferences [24.603091853218555]
異なる拒絶戦略が、様々なモチベーションにまたがるユーザの知覚にどのように影響するかを検討する。
以上の結果から,反応戦略がユーザエクスペリエンスを大きく形成する一方で,実際のユーザのモチベーションが無視できないことが判明した。
この研究は、効果的なガードレールは意図を検知するよりも、思慮深い拒絶を作らなければならないことを示している。
論文 参考訳(メタデータ) (2025-05-30T20:07:07Z) - Robust Relevance Feedback for Interactive Known-Item Video Search [30.382002857815497]
我々は、トップk選択の安定性を改善するためのペアワイズ相対判定フィードバックを導入する。
ユーザ認識を複数のサブパーセプションに分解し,それぞれが独立した埋め込み空間として表現される。
我々は,各ユーザフィードバックインスタンスに基づいて,サブパーセプションの組み合わせを推定する予測的ユーザモデルを開発する。
論文 参考訳(メタデータ) (2025-05-21T05:31:49Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - Beyond Trial-and-Error: Predicting User Abandonment After a Moderation Intervention [0.6918368994425961]
現在のコンテンツモデレーションは、リアクティブで試行錯誤的なアプローチに従っている。
我々は、モデレーターが実装前に行動の影響を予測できるように、積極的に予測的なアプローチを導入する。
Reddit上でのオンラインコミュニティの大規模な禁止に対する16,540人のユーザーの反応を調査した。
論文 参考訳(メタデータ) (2024-04-23T08:52:41Z) - User-Driven Adaptation: Tailoring Autonomous Driving Systems with
Dynamic Preferences [8.555603201531646]
本研究は,フィードバック駆動適応によるシステム行動とユーザ期待の整合性に着目した。
この結果は、アルゴリズムによる調整とユーザの苦情を効果的にマージするアプローチの能力を裏付けるものである。
論文 参考訳(メタデータ) (2024-03-05T12:44:54Z) - Off-Policy Evaluation of Ranking Policies under Diverse User Behavior [25.226825574282937]
Inverse Propensity Scoring (IPS) は、大きなアクション空間下での高分散のため、ランキング設定において極めて不正確なものとなる。
この研究は、ユーザの振る舞いが多様であり、ユーザコンテキストによって異なるという、はるかに一般的な定式化を探求する。
結果,Adaptive IPS (AIPS) と呼ばれる推定器は,複雑なユーザ動作下では非バイアス化可能であることを示す。
論文 参考訳(メタデータ) (2023-06-26T22:31:15Z) - Improving Selective Visual Question Answering by Learning from Your
Peers [74.20167944693424]
VQA(Visual Question Answering)モデルは、間違っていた場合の回答を控えるのに苦労する可能性がある。
本稿では,複数モーダル選択関数の学習におけるLearning from Your Peers (LYP) アプローチを提案する。
提案手法では,学習データの異なるサブセットに基づいて訓練されたモデルの予測を,選択的VQAモデルの最適化のターゲットとして利用する。
論文 参考訳(メタデータ) (2023-06-14T21:22:01Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。