論文の概要: Operation Veja: Fixing Fundamental Concepts Missing from Modern Roleplaying Training Paradigms
- arxiv url: http://arxiv.org/abs/2601.06039v1
- Date: Fri, 12 Dec 2025 22:14:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.577012
- Title: Operation Veja: Fixing Fundamental Concepts Missing from Modern Roleplaying Training Paradigms
- Title(参考訳): Operation Veja: 現代のロールプレイングトレーニングパラダイムから逸脱した基本的な概念の修正
- Authors: Yueze Liu, Ajay Nagi Reddy Kumdam, Ronit Kanjilal, Hao Yang, Yichi Zhang,
- Abstract要約: この失敗は、キャラクターの内部世界の動的な相互作用を見渡す訓練パラダイムに起因している、と我々は主張する。
Retrieval-Augmented Generation(英語版)を含む現在のアプローチは、人間の相互作用を定義する熟考的、価値に満ちた推論をモデル化する上で、繰り返し発生する制限を示す。
本稿では,これらの制約に対処するデータキュレーションのための新しいパラダイムとしてVEJAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.0103434252442005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern roleplaying models are increasingly sophisticated, yet they consistently struggle to capture the essence of believable, engaging characters. We argue this failure stems from training paradigms that overlook the dynamic interplay of a character's internal world. Current approaches, including Retrieval-Augmented Generation (RAG), fact-based priming, literature-based learning, and synthetic data generation, exhibit recurring limitations in modeling the deliberative, value-conflicted reasoning that defines human interaction. In this paper, we identify four core concepts essential for character authenticity: Values, Experiences, Judgments, and Abilities (VEJA). We propose the VEJA framework as a new paradigm for data curation that addresses these systemic limitations. To illustrate the qualitative ceiling enabled by our framework, we present a pilot study comparing a manually curated, VEJA-grounded dataset against a state-of-the-art synthetic baseline. Using an LLM-as-judge evaluation, our findings demonstrate a significant quality gap, suggesting that a shift toward conceptually grounded data curation, as embodied by VEJA, is necessary for creating roleplaying agents with genuine depth and narrative continuity. The full dataset is available at https://github.com/HyouinKyoumaIRL/Operation-Veja
- Abstract(参考訳): 現代のロールプレイングモデルはますます洗練されているが、彼らは信じがたいエンゲージメントなキャラクターの本質をつかむのに一貫して苦労している。
この失敗は、キャラクターの内部世界の動的な相互作用を見渡す訓練パラダイムに起因している、と我々は主張する。
Retrieval-Augmented Generation (RAG)、ファクトベースプライミング、文学ベースの学習、合成データ生成など、現在のアプローチでは、人間の相互作用を定義する熟考的、価値に富んだ推論をモデル化する上で、繰り返し制限が示されている。
本稿では,キャラクタ認証に不可欠な4つの中核概念:価値,経験,判断,能力(VEJA)について述べる。
本稿では,これらの制約に対処するデータキュレーションのための新しいパラダイムとしてVEJAフレームワークを提案する。
本フレームワークで実現した定性的天井について,手作業によるVEJAグラウンドデータセットと最先端の合成ベースラインとの比較実験を行った。
LLM-as-judge評価を用いて,本研究は,VEJAが具現化した概念的基盤データキュレーションへのシフトが,真に深みと物語の連続性を持ったロールプレイングエージェントを作成する上で必要であることを示す。
完全なデータセットはhttps://github.com/HyouinKyoumaIRL/Operation-Vejaで公開されている。
関連論文リスト
- Simplicity Prevails: The Emergence of Generalizable AIGI Detection in Visual Foundation Models [15.709482146201283]
現代のビジョン・ファンデーション・モデル(Vision Foundation Models)の凍結した特徴に基づいて訓練された単純な線形分類器は、新しい最先端技術を確立している。
この基準線は標準ベンチマーク上の特別な検出器と一致し、また、ウィジェット内のデータセット上では決定的に優れていることを示す。
我々は、AIの法医学におけるパラダイムシフトを提唱し、静的ベンチマークの過度な適合から、ファンデーションモデルの進化する世界の知識を現実の信頼性に活用することへと移行した。
論文 参考訳(メタデータ) (2026-02-02T07:20:02Z) - LVLM-Aided Alignment of Task-Specific Vision Models [49.96265491629163]
タスク固有の視覚モデルは、高い領域において不可欠である。
本稿では,タスク固有の視覚モデルと人間のドメイン知識を協調する,新しい,効率的な手法を提案する。
提案手法は, モデル動作と人間の仕様との整合性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-12-26T11:11:25Z) - Hallucinate, Ground, Repeat: A Framework for Generalized Visual Relationship Detection [6.253919624802853]
本研究では,大規模言語モデル(LLM)を構造化されたリレーショナルプリミティブとして活用する,反復的なビジュアルグラウンドディングフレームワークを導入する。
予測最大化(EM)にインスパイアされた本手法は,LLMを用いて検出対象から候補シーングラフを生成することと,視覚モデルを用いてこれらの仮説を知覚的証拠(最大化)と整合させる訓練とを交互に行う。
オープンワールドVRDのための新しいベンチマークをVisual Genomeに導入し、21の予測付きで評価し、3つの設定で評価する。このモデルでは、LLMのみ、少数ショット、およびデバイアスベースラインを上回り、平均リコール(mR@50)を達成する。
論文 参考訳(メタデータ) (2025-06-06T00:43:15Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - VHELM: A Holistic Evaluation of Vision Language Models [75.88987277686914]
視覚言語モデル(VHELM)の全体的評価について述べる。
VHELMは、視覚的知覚、知識、推論、バイアス、公平性、多言語性、堅牢性、毒性、安全性の9つの側面の1つ以上をカバーするために、さまざまなデータセットを集約する。
私たちのフレームワークは軽量で自動で、評価の実行が安価で高速に行えるように設計されています。
論文 参考訳(メタデータ) (2024-10-09T17:46:34Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - RelVAE: Generative Pretraining for few-shot Visual Relationship
Detection [2.2230760534775915]
本研究は,注釈付き関係を必要としない数発述語分類のための最初の事前学習手法を提案する。
VG200とVRDのデータセットについて,数発のトレーニング分割を構築し,定量的な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T19:08:08Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。