論文の概要: PILOT: Steering Synthetic Data Generation with Psychological & Linguistic Output Targeting
- arxiv url: http://arxiv.org/abs/2509.15447v1
- Date: Thu, 18 Sep 2025 21:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.913642
- Title: PILOT: Steering Synthetic Data Generation with Psychological & Linguistic Output Targeting
- Title(参考訳): PILOT:心理学的・言語学的出力目標を用いたステアリング合成データ生成
- Authors: Caitlin Cisar, Emily Sheffield, Joshua Drake, Alden Harrell, Subramanian Chidambaram, Nikita Nangia, Vinayak Arannil, Alex Williams,
- Abstract要約: PILOT (Psychological and Linguistic Output Targeting) は、構造化された心理言語学プロファイルを持つ大規模言語モデルを操るフレームワークである。
我々はPILOTが全条件にわたって高い応答品質を維持しており、ステアリングアプローチ間で統計的に有意な差はないことを示した。
- 参考スコア(独自算出の注目度): 3.452036427397369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI applications commonly leverage user personas as a steering mechanism for synthetic data generation, but reliance on natural language representations forces models to make unintended inferences about which attributes to emphasize, limiting precise control over outputs. We introduce PILOT (Psychological and Linguistic Output Targeting), a two-phase framework for steering large language models with structured psycholinguistic profiles. In Phase 1, PILOT translates natural language persona descriptions into multidimensional profiles with normalized scores across linguistic and psychological dimensions. In Phase 2, these profiles guide generation along measurable axes of variation. We evaluate PILOT across three state-of-the-art LLMs (Mistral Large 2, Deepseek-R1, LLaMA 3.3 70B) using 25 synthetic personas under three conditions: Natural-language Persona Steering (NPS), Schema-Based Steering (SBS), and Hybrid Persona-Schema Steering (HPS). Results demonstrate that schema-based approaches significantly reduce artificial-sounding persona repetition while improving output coherence, with silhouette scores increasing from 0.098 to 0.237 and topic purity from 0.773 to 0.957. Our analysis reveals a fundamental trade-off: SBS produces more concise outputs with higher topical consistency, while NPS offers greater lexical diversity but reduced predictability. HPS achieves a balance between these extremes, maintaining output variety while preserving structural consistency. Expert linguistic evaluation confirms that PILOT maintains high response quality across all conditions, with no statistically significant differences between steering approaches.
- Abstract(参考訳): 生成AIアプリケーションは一般的に、ユーザペルソナを合成データ生成のステアリングメカニズムとして活用するが、自然言語表現に依存しているため、どの属性を強調するべきかという意図しない推論をモデルに強制し、アウトプットの正確な制御を制限する。
PILOT(サイコロジカル・言語的アウトプットターゲティング)は、構造化された心理言語学的プロファイルを持つ大規模言語モデルを操る2段階のフレームワークである。
フェーズ1では、PILOTは自然言語のペルソナ記述を、言語的および心理的次元にわたる正規化されたスコアを持つ多次元プロファイルに変換する。
フェーズ2では、これらのプロファイルは変化の計測可能な軸に沿って生成を導く。
NPS, Schema-based Steering (SBS), Hybrid Persona-Schema Steering (HPS) の3つの条件下で,25の合成ペルソナを用いた3つの最先端LCM(Mistral Large 2, Deepseek-R1, LLaMA 3.3 70B)におけるPILOTの評価を行った。
その結果,シロエットスコアは0.098から0.237に増加し,トピック純粋度は0.773から0.957に向上した。
SBSはより簡潔な出力を生成するが、NPSはより語彙的な多様性を提供するが予測可能性の低下をもたらす。
HPSはこれらの極端間のバランスを達成し、構造的な一貫性を維持しながら出力の多様性を維持する。
専門的な言語学的評価では、PILOTは全ての条件において高い応答品質を維持しており、ステアリングアプローチ間で統計的に有意な差はない。
関連論文リスト
- Enhancing Paraphrase Type Generation: The Impact of DPO and RLHF Evaluated with Human-Ranked Data [0.0]
パラフレーズ化は、テキストの単純化、機械翻訳、質問応答などのアプリケーションを強化する意味を持つ。
既存のパラフレーズ型生成法は、自動化されたメトリクスと限定的な人手によるトレーニングデータに依存するため、人間の嗜好に反することが多い。
本研究は,人間のランク付けされたパラフレーズ型データセットを活用し,モデル出力と人間の判断を直接整合させるためにDPO(Direct Preference Optimization)を統合することで,このギャップに対処する。
論文 参考訳(メタデータ) (2025-05-28T07:52:18Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - Latent Preference Coding: Aligning Large Language Models via Discrete Latent Codes [54.93980123979578]
我々は、暗黙の要因をモデル化する新しいフレームワークであるLatent Preference Coding (LPC)を紹介する。
LPCは様々なオフラインアライメントアルゴリズムとシームレスに統合し、基礎となる要因とデータからその重要性を自動的に推測する。
論文 参考訳(メタデータ) (2025-05-08T06:59:06Z) - Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning [73.73967342609603]
トラクションエラーを最小限に抑えるための予測-相関学習フレームワークを提案する。
また、高次予測器を強化するために、指数関数的移動平均ベース係数学習法を提案する。
我々のモデルは3.8BのDeepNetを平均2.9のSacreBLEUで上回り、1/3のパラメータしか使用していない。
論文 参考訳(メタデータ) (2024-11-05T12:26:25Z) - DEPT: Decoupled Embeddings for Pre-training Language Models [16.84502158672086]
本稿では,通信効率の高い事前学習フレームワークDEPTを提案する。
本手法はトランス体から埋め込みを分離し,同時に複数のデータソース上で後者をトレーニングする。
我々は,10億規模モデルの最初の語彙に依存しないフェデレーション事前学習を通じて,DEPTのポテンシャルを実証する。
論文 参考訳(メタデータ) (2024-10-07T13:24:24Z) - Training Language Models with Language Feedback at Scale [50.70091340506957]
我々は、より情報的な言語フィードバックを利用する新しいアプローチであるLanguage Feedback (ILF)から学習を導入する。
ILFは3つのステップから成り、まず言語モデルを入力に条件付けし、最初のLM出力を出力し、改善を生成する。
理論的には、ILFは人間からのフィードバックによる強化学習と同様、ベイズ推論とみなすことができる。
論文 参考訳(メタデータ) (2023-03-28T17:04:15Z) - WANLI: Worker and AI Collaboration for Natural Language Inference
Dataset Creation [101.00109827301235]
我々は人間と機械の協調に基づくデータセット作成のための新しいパラダイムを導入する。
我々は、データセット地図を用いて、挑戦的な推論パターンを示すサンプルを自動的に識別し、GPT-3に同様のパターンで新しい例を作成するよう指示する。
結果として得られたデータセットであるWANLIは、108,357の自然言語推論(NLI)の例からなり、ユニークな経験的強度を示す。
論文 参考訳(メタデータ) (2022-01-16T03:13:49Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。