論文の概要: Operation Veja: Fixing Fundamental Concepts Missing from Modern Roleplaying Training Paradigms
- arxiv url: http://arxiv.org/abs/2601.06039v1
- Date: Fri, 12 Dec 2025 22:14:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.577012
- Title: Operation Veja: Fixing Fundamental Concepts Missing from Modern Roleplaying Training Paradigms
- Title(参考訳): Operation Veja: 現代のロールプレイングトレーニングパラダイムから逸脱した基本的な概念の修正
- Authors: Yueze Liu, Ajay Nagi Reddy Kumdam, Ronit Kanjilal, Hao Yang, Yichi Zhang,
- Abstract要約: この失敗は、キャラクターの内部世界の動的な相互作用を見渡す訓練パラダイムに起因している、と我々は主張する。
Retrieval-Augmented Generation(英語版)を含む現在のアプローチは、人間の相互作用を定義する熟考的、価値に満ちた推論をモデル化する上で、繰り返し発生する制限を示す。
本稿では,これらの制約に対処するデータキュレーションのための新しいパラダイムとしてVEJAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.0103434252442005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern roleplaying models are increasingly sophisticated, yet they consistently struggle to capture the essence of believable, engaging characters. We argue this failure stems from training paradigms that overlook the dynamic interplay of a character's internal world. Current approaches, including Retrieval-Augmented Generation (RAG), fact-based priming, literature-based learning, and synthetic data generation, exhibit recurring limitations in modeling the deliberative, value-conflicted reasoning that defines human interaction. In this paper, we identify four core concepts essential for character authenticity: Values, Experiences, Judgments, and Abilities (VEJA). We propose the VEJA framework as a new paradigm for data curation that addresses these systemic limitations. To illustrate the qualitative ceiling enabled by our framework, we present a pilot study comparing a manually curated, VEJA-grounded dataset against a state-of-the-art synthetic baseline. Using an LLM-as-judge evaluation, our findings demonstrate a significant quality gap, suggesting that a shift toward conceptually grounded data curation, as embodied by VEJA, is necessary for creating roleplaying agents with genuine depth and narrative continuity. The full dataset is available at https://github.com/HyouinKyoumaIRL/Operation-Veja
- Abstract(参考訳): 現代のロールプレイングモデルはますます洗練されているが、彼らは信じがたいエンゲージメントなキャラクターの本質をつかむのに一貫して苦労している。
この失敗は、キャラクターの内部世界の動的な相互作用を見渡す訓練パラダイムに起因している、と我々は主張する。
Retrieval-Augmented Generation (RAG)、ファクトベースプライミング、文学ベースの学習、合成データ生成など、現在のアプローチでは、人間の相互作用を定義する熟考的、価値に富んだ推論をモデル化する上で、繰り返し制限が示されている。
本稿では,キャラクタ認証に不可欠な4つの中核概念:価値,経験,判断,能力(VEJA)について述べる。
本稿では,これらの制約に対処するデータキュレーションのための新しいパラダイムとしてVEJAフレームワークを提案する。
本フレームワークで実現した定性的天井について,手作業によるVEJAグラウンドデータセットと最先端の合成ベースラインとの比較実験を行った。
LLM-as-judge評価を用いて,本研究は,VEJAが具現化した概念的基盤データキュレーションへのシフトが,真に深みと物語の連続性を持ったロールプレイングエージェントを作成する上で必要であることを示す。
完全なデータセットはhttps://github.com/HyouinKyoumaIRL/Operation-Vejaで公開されている。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - RelVAE: Generative Pretraining for few-shot Visual Relationship
Detection [2.2230760534775915]
本研究は,注釈付き関係を必要としない数発述語分類のための最初の事前学習手法を提案する。
VG200とVRDのデータセットについて,数発のトレーニング分割を構築し,定量的な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T19:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。