論文の概要: Fine-Grained Behavior Simulation with Role-Playing Large Language Model on Social Media
- arxiv url: http://arxiv.org/abs/2412.03148v1
- Date: Wed, 04 Dec 2024 09:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:10:22.264742
- Title: Fine-Grained Behavior Simulation with Role-Playing Large Language Model on Social Media
- Title(参考訳): ソーシャルメディア上でのロールプレイング大言語モデルを用いた微粒化挙動シミュレーション
- Authors: Kun Li, Chenwei Dai, Wei Zhou, Songlin Hu,
- Abstract要約: textbfFineRobは、新しいきめ細かい挙動シミュレーションデータセットである。
我々は3つのソーシャルメディアプラットフォームで1,866人の異なるユーザーの行動履歴を収集する。
機能向上を目的としたtextbfOM-CoT ファインチューニング手法を提案する。
- 参考スコア(独自算出の注目度): 24.272384832200522
- License:
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in role-playing tasks. However, there is limited research on whether LLMs can accurately simulate user behavior in real-world scenarios, such as social media. This requires models to effectively analyze a user's history and simulate their role. In this paper, we introduce \textbf{FineRob}, a novel fine-grained behavior simulation dataset. We collect the complete behavioral history of 1,866 distinct users across three social media platforms. Each behavior is decomposed into three fine-grained elements: object, type, and content, resulting in 78.6k QA records. Based on FineRob, we identify two dominant reasoning patterns in LLMs' behavior simulation processes and propose the \textbf{OM-CoT} fine-tuning method to enhance the capability. Through comprehensive experiments, we conduct an in-depth analysis of key factors of behavior simulation and also demonstrate the effectiveness of OM-CoT approach\footnote{Code and dataset are available at \url{https://github.com/linkseed18612254945/FineRob}}
- Abstract(参考訳): 大型言語モデル(LLM)はロールプレイングタスクにおいて印象的な機能を示している。
しかし, LLMがソーシャルメディアなどの現実シナリオにおいて, ユーザの行動を正確にシミュレートできるかどうかについては, 限定的な研究がなされている。
これは、ユーザーの履歴を効果的に分析し、役割をシミュレートするモデルを必要とする。
本稿では,新しい微粒化挙動シミュレーションデータセットであるtextbf{FineRob}を紹介する。
我々は3つのソーシャルメディアプラットフォームで1,866人の異なるユーザーの行動履歴を収集する。
それぞれの振る舞いは、オブジェクト、タイプ、内容の3つの細かい要素に分解され、結果として78.6kのQAレコードが生成される。
FineRobに基づいて, LLMの動作シミュレーションプロセスにおける2つの支配的推論パターンを同定し, その能力を高めるために, \textbf{OM-CoT}ファインチューニング法を提案する。
OM-CoT approach\footnote{Code and dataset is available at \url{https://github.com/linkseed18612254945/FineRob}}
関連論文リスト
- How Far are LLMs from Being Our Digital Twins? A Benchmark for Persona-Based Behavior Chain Simulation [30.713599131902566]
本稿では,デジタル双生児が連続した人間の行動をシミュレートする能力を評価する最初のベンチマークであるBehavimentChainを紹介する。
BehaviorChainは、多種多様で高品質なペルソナベースの行動連鎖で構成され、1,001のユニークなペルソナに対して15,846の異なる振る舞いがある。
総合的な評価結果は、最先端モデルでさえ、連続した人間の行動の正確なシミュレートに苦慮していることを示している。
論文 参考訳(メタデータ) (2025-02-20T15:29:32Z) - Video2Policy: Scaling up Manipulation Tasks in Simulation through Internet Videos [61.925837909969815]
我々は,インターネット上のRGBビデオを利用して日常の人間行動に基づいてタスクを再構築する新しいフレームワークであるVideo2Policyを紹介した。
本手法は投球のような複雑で困難なタスクを含む,そのようなタスクに対するRLポリシーのトレーニングに成功している。
生成したシミュレーションデータは,一般的なポリシをトレーニングするためにスケールアップ可能であり,Real2Sim2Real方式で実ロボットに転送可能であることを示す。
論文 参考訳(メタデータ) (2025-02-14T03:22:03Z) - Synthesizing Post-Training Data for LLMs through Multi-Agent Simulation [51.20656279478878]
MATRIXは、様々なテキストベースのシナリオを自動的に生成するマルチエージェントシミュレータである。
制御可能でリアルなデータ合成のためのMATRIX-Genを紹介する。
AlpacaEval 2 と Arena-Hard のベンチマークでは、Llama-3-8B-Base が、MATRIX-Gen によって合成されたデータセット上で、たった 20K の命令応答ペアで、Meta の Llama-3-8B-Instruct モデルより優れています。
論文 参考訳(メタデータ) (2024-10-18T08:01:39Z) - A Simulation System Towards Solving Societal-Scale Manipulation [14.799498804818333]
AIによる操作の台頭は、社会的信頼と民主的プロセスに重大なリスクをもたらす。
しかし、これらの効果を現実世界で大規模に研究することは倫理的にも論理的にも非現実的です。
この問題に対処するために設計されたシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2024-10-17T03:16:24Z) - GenSim: A General Social Simulation Platform with Large Language Model based Agents [111.00666003559324]
我々はtextitGenSim と呼ばれる新しい大規模言語モデル (LLM) ベースのシミュレーションプラットフォームを提案する。
我々のプラットフォームは10万のエージェントをサポートし、現実世界のコンテキストで大規模人口をシミュレートする。
我々の知る限り、GenSimは汎用的で大規模で修正可能な社会シミュレーションプラットフォームに向けた最初の一歩である。
論文 参考訳(メタデータ) (2024-10-06T05:02:23Z) - USimAgent: Large Language Models for Simulating Search Users [33.17004578463697]
本稿では,大規模言語モデルに基づくユーザ検索行動シミュレータUSimAgentを紹介する。
シミュレータは、検索中のユーザのクエリ、クリック、動作の停止をシミュレートすることができる。
実ユーザ行動データセットに関する実証調査では、シミュレータがクエリ生成において既存のメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T07:40:54Z) - BASES: Large-scale Web Search User Simulation with Large Language Model
based Agents [108.97507653131917]
BASESは、大きな言語モデル(LLM)を持つ新しいユーザーシミュレーションフレームワークである。
シミュレーションフレームワークは,大規模に独自のユーザプロファイルを生成することができ,その結果,多様な検索行動が生まれる。
WARRIORSは、中国語と英語の両方のバージョンを含む、Web検索ユーザ行動を含む、新しい大規模なデータセットである。
論文 参考訳(メタデータ) (2024-02-27T13:44:09Z) - GPT-Based Models Meet Simulation: How to Efficiently Use Large-Scale
Pre-Trained Language Models Across Simulation Tasks [0.0]
本稿では,科学シミュレーションにおける大規模事前学習言語モデルの利用に関する最初の研究である。
最初の課題は参加者の関与を促進する概念モデルの構造を説明することである。
第2のタスクはシミュレーション出力の要約に重点を置いており、モデルユーザーが望ましいシナリオを識別できるようにしている。
第3の課題は、シミュレーションの可視化の洞察をテキストで伝えることによって、シミュレーションプラットフォームへのアクセシビリティの拡大を目指している。
論文 参考訳(メタデータ) (2023-06-21T15:42:36Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。