論文の概要: Semiotic Reconstruction of Destination Expectation Constructs An LLM-Driven Computational Paradigm for Social Media Tourism Analytics
- arxiv url: http://arxiv.org/abs/2505.16118v1
- Date: Thu, 22 May 2025 01:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.96611
- Title: Semiotic Reconstruction of Destination Expectation Constructs An LLM-Driven Computational Paradigm for Social Media Tourism Analytics
- Title(参考訳): ソーシャルメディア観光分析のためのLLM駆動型計算パラダイムの構築
- Authors: Haotian Lan, Yao Gao, Yujun Cheng, Wei Yuan, Kun Wang,
- Abstract要約: ソーシャルメディアの興隆は、旅行決定の要点としてユーザ生成コンテンツ(UGC)を確立する。
本研究では,調査インフォームドファインチューニングと組み合わせた非教師なし予測抽出という,デュアルメタルLLMフレームワークを提案する。
発見は、レジャー/社会的期待が、基礎的自然/感情的要因以上のエンゲージメントをもたらすことを示している。
- 参考スコア(独自算出の注目度): 10.646175272534082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media's rise establishes user-generated content (UGC) as pivotal for travel decisions, yet analytical methods lack scalability. This study introduces a dual-method LLM framework: unsupervised expectation extraction from UGC paired with survey-informed supervised fine-tuning. Findings reveal leisure/social expectations drive engagement more than foundational natural/emotional factors. By establishing LLMs as precision tools for expectation quantification, we advance tourism analytics methodology and propose targeted strategies for experience personalization and social travel promotion. The framework's adaptability extends to consumer behavior research, demonstrating computational social science's transformative potential in marketing optimization.
- Abstract(参考訳): ソーシャルメディアの興隆は、ユーザー生成コンテンツ(UGC)を旅行決定の要点として確立するが、分析手法にはスケーラビリティがない。
本研究は,UGCから非教師あり予測抽出とサーベイインフォーム付き教師あり微調整を併用した2次元LLMフレームワークを提案する。
発見は、レジャー/社会的期待が、基礎的自然/感情的要因以上のエンゲージメントをもたらすことを示している。
予測定量化のための精度ツールとしてLCMを確立することにより,観光分析手法を進歩させ,パーソナライズ経験と社会旅行促進のためのターゲット戦略を提案する。
このフレームワークの適応性は、消費者行動研究にまで拡張され、マーケティング最適化における計算社会科学の変革の可能性を示す。
関連論文リスト
- Aligning LLM with human travel choices: a persona-based embedding learning approach [15.11130742093296]
本稿では,大規模言語モデルと人間の旅行選択行動の整合性を示す新しい枠組みを提案する。
我々のフレームワークは、パーソナ推論とロードプロセスを使用して、アライメントを強化するのに適したプロンプトでLLMを条件付けします。
論文 参考訳(メタデータ) (2025-05-25T06:54:01Z) - Where You Go is Who You Are: Behavioral Theory-Guided LLMs for Inverse Reinforcement Learning [4.345382237366071]
LLM誘導逆強化学習(IRL)と認知連鎖推論(CCR)を用いたソシオドモグラフィー推論のためのSILICを提案する。
CCRは、潜在行動意図を捉え、心理的構成を通して推論することで、観察されたモビリティパターンから社会デミノグラフィー特性を推測する。
提案手法は最先端のベースラインを著しく上回り,交通計画等における行動基盤型アプリケーションを支援するため,大規模軌跡データを充実させるという大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-05-22T19:56:03Z) - SCRAG: Social Computing-Based Retrieval Augmented Generation for Community Response Forecasting in Social Media Environments [8.743208265682014]
SCRAGは、ソーシャルコンピューティングにインスパイアされた予測フレームワークである。
リアルまたは仮説的なソーシャルメディア投稿に対するコミュニティの反応を予測する。
公開関係の専門家が意図しない誤解を避ける方法でメッセージを作成するために使用することができる。
論文 参考訳(メタデータ) (2025-04-18T15:02:31Z) - FamilyTool: A Multi-hop Personalized Tool Use Benchmark [94.1158032740113]
ファミリーベースナレッジグラフ(KG)に基づく新しいベンチマークであるFamilyToolを紹介する。
FamilyToolは1から3つのリレーショナルホップにまたがるクエリを伴う大規模言語モデルに挑戦する。
実験により、最先端のLCMにおいて大きな性能差が示された。
論文 参考訳(メタデータ) (2025-04-09T10:42:36Z) - A Survey of Scaling in Large Language Model Reasoning [62.92861523305361]
大規模言語モデル(LLM)推論におけるスケーリングの総合的な検討について述べる。
我々は、多段階推論と論理的整合性を改善する推論ステップにおけるスケーリングを分析する。
我々は、反復モデルの改善による最適化に焦点を当て、トレーニング可能な推論のスケーリングについて論じる。
論文 参考訳(メタデータ) (2025-04-02T23:51:27Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - Build An Influential Bot In Social Media Simulations With Large Language Models [7.242974711907219]
本研究では,エージェントベースモデリング(ABM)とLarge Language Models(LLM)を組み合わせた新しいシミュレーション環境を提案する。
本稿では,Reinforcement Learning (RL) の革新的応用として,世論指導者形成の過程を再現する手法を提案する。
以上の結果から,行動空間の制限と自己観察の導入が,世論指導層形成の安定に寄与する重要な要因であることが示唆された。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - SurveyLM: A platform to explore emerging value perspectives in augmented
language models' behaviors [0.4724825031148411]
本稿では,拡張言語モデル(ALM)の創発的アライメント行動を分析するプラットフォームであるSurveyLMについて述べる。
従来社会行動研究に用いられてきた調査・実験手法を応用し,ALMを体系的に評価する。
我々は,ALMの創発的行動に影響を与える要因に光を当てること,人間の意図や期待との整合性を促進すること,高度社会AIシステムの開発と展開に寄与することを目的としている。
論文 参考訳(メタデータ) (2023-08-01T12:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。