論文の概要: The Impact of LLM-Generated Reviews on Recommender Systems: Textual Shifts, Performance Effects, and Strategic Platform Control
- arxiv url: http://arxiv.org/abs/2601.02362v1
- Date: Sun, 02 Nov 2025 09:06:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.480106
- Title: The Impact of LLM-Generated Reviews on Recommender Systems: Textual Shifts, Performance Effects, and Strategic Platform Control
- Title(参考訳): LLM-Generated Reviews on Recommender Systems: Textual Shifts, Performance Effects, and Strategic Platform Control
- Authors: Itzhak Ziv, Moshe Unger, Hilah Geva,
- Abstract要約: 生成AI技術の台頭は、コンテンツベースのレコメンデーションシステム(RS)を再構築している。
本研究では、AIによるレビューの導入が、RSのパフォーマンスとビジネス成果にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 0.4078247440919473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of generative AI technologies is reshaping content-based recommender systems (RSes), which increasingly encounter AI-generated content alongside human-authored content. This study examines how the introduction of AI-generated reviews influences RS performance and business outcomes. We analyze two distinct pathways through which AI content can enter RSes: user-centric, in which individuals use AI tools to refine their reviews, and platform-centric, in which platforms generate synthetic reviews directly from structured metadata. Using a large-scale dataset of hotel reviews from TripAdvisor, we generate synthetic reviews using LLMs and evaluate their impact across the training and deployment phases of RSes. We find that AI-generated reviews differ systematically from human-authored reviews across multiple textual dimensions. Although both user- and platform-centric AI reviews enhance RS performance relative to models without textual data, models trained on human reviews consistently achieve superior performance, underscoring the quality of authentic human data. Human-trained models generalize robustly to AI content, whereas AI-trained models underperform on both content types. Furthermore, tone-based framing strategies (encouraging, constructive, or critical) substantially enhance platform-generated review effectiveness. Our findings highlight the strategic importance of platform control in governing the generation and integration of AI-generated reviews, ensuring that synthetic content complements recommendation robustness and sustainable business value.
- Abstract(参考訳): 生成AI技術の台頭はコンテンツベースのレコメンデーションシステム(RS)を再構築し、人間によるコンテンツと並行してAI生成コンテンツに遭遇する傾向にある。
本研究では、AIによるレビューの導入が、RSのパフォーマンスとビジネス成果にどのように影響するかを検討する。
我々は、AIコンテンツがRSに入るための2つの異なる経路を分析する: ユーザー中心、個人がAIツールを使用してレビューを洗練させる、プラットフォーム中心、プラットフォームが構造化メタデータから直接合成レビューを生成する。
TripAdvisor によるホテルレビューの大規模データセットを用いて,LLM を用いた総合レビューを作成し,RS のトレーニングおよび展開フェーズにおけるそれらの影響を評価する。
AIによるレビューは、複数のテキスト次元にわたる人間によるレビューとは体系的に異なることがわかった。
ユーザ中心のAIレビューとプラットフォーム中心のAIレビューは、テキストデータのないモデルと比較してRSパフォーマンスを向上させるが、人間のレビューに基づいてトレーニングされたモデルは、真の人間のデータの品質を前提として、一貫して優れたパフォーマンスを達成する。
人間の訓練されたモデルはAIコンテンツに対して堅牢に一般化する一方、AI訓練されたモデルは両方のコンテンツタイプで性能が劣る。
さらに、トーンベースのフレーミング戦略(強化、構築、クリティカル)は、プラットフォームが生成したレビューの有効性を大幅に向上させる。
我々の研究は、AI生成レビューの生成と統合におけるプラットフォーム制御の戦略的重要性を強調し、合成コンテンツが推薦の堅牢性と持続可能なビジネス価値を補完することを保証する。
関連論文リスト
- An AI Implementation Science Study to Improve Trustworthy Data in a Large Healthcare System [1.6881002551798014]
本研究では,大規模多施設小児科システムであるSingers Childrens (SCs) におけるAI導入事例について述べる。
我々は,Pythonベースのデータ品質評価ツールをSCsインフラストラクチャと互換性を持ち,OHDsiのR/Javaベースのデータ品質ダッシュボードを拡張した。
また,FHIR標準を用いた顎顔面マイクロソミー(CFM)の体系的およびケース特異的AI実装戦略の比較を行った。
論文 参考訳(メタデータ) (2025-12-01T14:21:16Z) - ChatGpt Content detection: A new approach using xlm-roberta alignment [0.0]
本稿では,最先端多言語変換モデルであるXLM-RoBERTaを用いて,AI生成テキストを検出するための包括的手法を提案する。
我々は、人間とAIが生成したテキストのバランスのとれたデータセット上でモデルを微調整し、その性能を評価した。
我々の発見は、学術的完全性を維持するための貴重なツールを提供し、AI倫理の幅広い分野に貢献する。
論文 参考訳(メタデータ) (2025-11-26T03:16:57Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。