論文の概要: MINDECHO: Role-Playing Language Agents for Key Opinion Leaders
- arxiv url: http://arxiv.org/abs/2407.05305v2
- Date: Wed, 9 Oct 2024 07:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 23:24:33.932687
- Title: MINDECHO: Role-Playing Language Agents for Key Opinion Leaders
- Title(参考訳): MINDECHO: キーオピニオンリーダーのためのロールプレイング言語エージェント
- Authors: Rui Xu, Dakuan Lu, Xiaoyu Tan, Xintao Wang, Siyu Yuan, Jiangjie Chen, Wei Chu, Yinghui Xu,
- Abstract要約: 本稿では、キーオピニオンリーダー(KOL)の開発と評価のためのフレームワークであるMINDECHOを紹介する。
MINDECHOは、様々な専門分野のインターネットビデオテキストからKOLデータを収集し、GPT-4を利用して会話を合成する。
KOLの一般次元(e, knowledge, tone)とファン中心次元の両方を対象として評価を行った。
- 参考スコア(独自算出の注目度): 50.43050502970816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models~(LLMs) have demonstrated impressive performance in various applications, among which role-playing language agents (RPLAs) have engaged a broad user base. Now, there is a growing demand for RPLAs that represent Key Opinion Leaders (KOLs), \ie, Internet celebrities who shape the trends and opinions in their domains. However, research in this line remains underexplored. In this paper, we hence introduce MINDECHO, a comprehensive framework for the development and evaluation of KOL RPLAs. MINDECHO collects KOL data from Internet video transcripts in various professional fields, and synthesizes their conversations leveraging GPT-4. Then, the conversations and the transcripts are used for individualized model training and inference-time retrieval, respectively. Our evaluation covers both general dimensions (\ie, knowledge and tones) and fan-centric dimensions for KOLs. Extensive experiments validate the effectiveness of MINDECHO in developing and evaluating KOL RPLAs.
- Abstract(参考訳): 大規模言語モデル~(LLM)は様々なアプリケーションにおいて印象的な性能を示しており、その中にはロールプレイング言語エージェント(RPLA)が幅広いユーザーベースを担っている。
今や、キーオピニオンリーダー(KOL)、シャイ、インターネットの有名人、ドメインのトレンドや意見を形作るRPLAに対する需要が増えている。
しかし、この系統の研究は過小評価されている。
そこで本稿では,KOL RPLAの開発と評価のための総合的なフレームワークであるMINDECHOを紹介する。
MINDECHOは、様々な専門分野のインターネットビデオテキストからKOLデータを収集し、GPT-4を利用して会話を合成する。
そして、各会話と書き起こしは、それぞれ個別化されたモデルトレーニングと推論時間検索に使用される。
評価は, KOLの一般次元(感情, 知識, トーン)とファン中心次元(ファン中心次元)の両方をカバーする。
大規模な実験は、KOL RPLAの開発と評価におけるMINDECHOの有効性を検証する。
関連論文リスト
- ERABAL: Enhancing Role-Playing Agents through Boundary-Aware Learning [17.5855800570993]
ヒューマン・コンピュータ・インタラクション(HCI)分野におけるロールプレイング
大幅な進歩にもかかわらず、ロールプレイングエージェント(RPLA)は、会話間のロール一貫性を維持するのに依然として苦労している。
境界認識学習によるロールプレイング能力向上を目的としたフレームワークであるERABALを提案する。
論文 参考訳(メタデータ) (2024-09-23T05:12:13Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - Facilitating Multi-Role and Multi-Behavior Collaboration of Large Language Models for Online Job Seeking and Recruiting [51.54907796704785]
既存の手法は履歴書とジョブ記述の潜在意味論をモデル化し、それらの間に一致する関数を学習することに依存している。
大規模言語モデル (LLM) の強力なロールプレイング能力に触発されて, LLM によるインタビュアーと候補者のモックインタビュープロセスを導入することを提案する。
そこで我々は,モックインタビュー生成とハンドシェイクプロトコルにおける双方向評価という2つのモジュールにパーソナライズされたマッチングプロセスを分割する,新しいフレームワークであるMockLLMを提案する。
論文 参考訳(メタデータ) (2024-05-28T12:23:16Z) - From Persona to Personalization: A Survey on Role-Playing Language Agents [52.783043059715546]
大規模言語モデル(LLM)の最近の進歩はロールプレイング言語エージェント(RPLA)の台頭を後押ししている。
RPLAは、人間の類似性と鮮明なロールプレイングパフォーマンスの素晴らしい感覚を達成します。
彼らは感情的な仲間、インタラクティブなビデオゲーム、パーソナライズされたアシスタント、コピロなど、多くのAI応用を触媒してきた。
論文 参考訳(メタデータ) (2024-04-28T15:56:41Z) - RoleEval: A Bilingual Role Evaluation Benchmark for Large Language
Models [44.105939096171454]
本稿では,役割知識の記憶,利用,推論能力を評価するためのベンチマークであるRoleEvalを紹介する。
RoleEvalはRoleEval-GlobalとRoleEval-Chinaで構成される。
論文 参考訳(メタデータ) (2023-12-26T17:40:55Z) - OCRBench: On the Hidden Mystery of OCR in Large Multimodal Models [122.27878464009181]
テキスト関連視覚タスクにおいて, GPT4V や Gemini などの大規模マルチモーダルモデルの包括的評価を行った。
OCRBenchには29のデータセットがあり、最も包括的なOCR評価ベンチマークが利用できる。
論文 参考訳(メタデータ) (2023-05-13T11:28:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。