論文の概要: Persuasive or Neutral? A Field Experiment on Generative AI in Online Travel Planning
- arxiv url: http://arxiv.org/abs/2509.14259v1
- Date: Fri, 12 Sep 2025 21:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.886821
- Title: Persuasive or Neutral? A Field Experiment on Generative AI in Online Travel Planning
- Title(参考訳): 説得的・中立的?オンライン旅行計画における生成AIのフィールド実験
- Authors: Lynna Jirpongopas, Bernhard Lutz, Jörg Ebner, Rustam Vahidov, Dirk Neumann,
- Abstract要約: オンライン旅行計画におけるランダムフィールド実験の結果を報告する。
グループAのユーザは、グループBとCのユーザよりもはるかに長いプロンプトを書いた。
同時に、AグループとBグループのユーザーは、Webサービスのサブスクリプションを購入する傾向が高かった。
- 参考スコア(独自算出の注目度): 1.1744028458220426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (GenAI) offers new opportunities for customer support in online travel agencies, yet little is known about how its design influences user engagement, purchase behavior, and user experience. We report results from a randomized field experiment in online travel itinerary planning, comparing GenAI that expressed (A) positive enthusiasm, (B) neutral expression, and (C) no tone instructions (control). Users in group A wrote significantly longer prompts than those in groups B and C. At the same time, users in groups A and B were more likely to purchase subscriptions of the webservice. We further analyze linguistic cues across experimental groups to explore differences in user experience and explain subscription purchases and affiliate link clicks based on these cues. Our findings provide implications for the design of persuasive and engaging GenAI interfaces in consumer-facing contexts and contribute to understanding how linguistic framing shapes user behavior in AI-mediated decision support.
- Abstract(参考訳): Generative AI(GenAI)は、オンライン旅行代理店におけるカスタマーサポートに新たな機会を提供するが、そのデザインがユーザエンゲージメント、購入行動、ユーザエクスペリエンスにどのように影響するかは分かっていない。
我々は,(A)正の熱意,(B)中性表現,(C)無音指示(制御)を表わしたGenAIを比較し,オンライン旅行計画におけるランダムフィールド実験の結果を報告する。
同時に、AグループとBグループのユーザは、Webサービスのサブスクリプションを購入する傾向が高かった。
さらに、実験グループ間での言語的手がかりを分析し、ユーザ体験の違いを調査し、サブスクリプション購入とアフィリエイトリンククリックを説明する。
本研究は,AIによる意思決定支援において,言語的フレーミングがユーザ行動をどのように形作るかを理解するのに寄与する。
関連論文リスト
- IXAII: An Interactive Explainable Artificial Intelligence Interface for Decision Support Systems [0.13654846342364302]
IXAIIは、LIME、SHAP、Anchors、DiCEの4つの説明可能なAIメソッドから説明を提供する。
プロトタイプでは,5つのユーザグループに対して適切なビューを提供し,説明内容やフォーマットに関してユーザエージェンシーを提供する。
論文 参考訳(メタデータ) (2025-06-26T14:28:13Z) - Creativity in the Age of AI: Evaluating the Impact of Generative AI on Design Outputs and Designers' Creative Thinking [19.713133349166778]
我々は、GenAIサポートの有無にかかわらず、参加者に広告のデザインを依頼した。
専門家評価者は、GenAIが支援するデザインをより創造的で非伝統的な「ウェアード」と評価した
ネイティブイングリッシュスピーカーはAIを使用するとリラックスを減らしたが、GenAIに慣れたデザイナは散発的思考の進歩を見せた。
論文 参考訳(メタデータ) (2024-10-31T19:23:34Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Should XAI Nudge Human Decisions with Explanation Biasing? [2.6396287656676725]
本稿では、説明可能なAI(XAI)の説明に自動バイアスを導入するアプローチであるNudge-XAIの以前の試行についてレビューする。
Nudge-XAIは、説明を提供することや強調することの影響を予測し、強制せずにAI推奨の意思決定に向けてユーザーを誘導するユーザモデルを使用している。
論文 参考訳(メタデータ) (2024-06-11T14:53:07Z) - AutoGuide: Automated Generation and Selection of Context-Aware Guidelines for Large Language Model Agents [74.17623527375241]
オフライン体験からコンテキスト認識ガイドラインを自動的に生成する,AutoGuideという新しいフレームワークを導入する。
その結果,本ガイドラインはエージェントの現在の意思決定プロセスに関連性のある知識の提供を促進する。
評価の結果, AutoGuide は複雑なベンチマーク領域において, 競争ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-03-13T22:06:03Z) - Human-in-the-loop Fairness: Integrating Stakeholder Feedback to Incorporate Fairness Perspectives in Responsible AI [4.0247545547103325]
公正は人工知能(AI)を用いたリスクの高い意思決定への関心が高まっている
普遍的に受け入れられる公正度尺度はなく、公正性は文脈依存であり、公正と見なされるものに関して矛盾する視点があるかもしれない。
私たちの作業は、ステークホルダーが特定の決定インスタンスとその公正性に関する結果に対してフィードバックをすることができるアプローチに従っています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。