論文の概要: Does Structured Intent Representation Generalize? A Cross-Language, Cross-Model Empirical Study of 5W3H Prompting
- arxiv url: http://arxiv.org/abs/2603.25379v1
- Date: Thu, 26 Mar 2026 12:29:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-27 20:52:48.284082
- Title: Does Structured Intent Representation Generalize? A Cross-Language, Cross-Model Empirical Study of 5W3H Prompting
- Title(参考訳): 構造インテント表現は一般化されるか? : 5W3Hプロンプティングのクロスランゲージ・クロスモデル実証研究
- Authors: Peng Gang,
- Abstract要約: 人-AIインタラクションにおける構造化意図表現のための 5W3H ベースのフレームワーク PPS について検討した。
AIによって拡張された5W3Hプロンプトは、手作業による5W3Hプロンプトと、ゴールアライメントの統計的に有意な差は示さない。
また、非構造的プロンプトは系統的な二重インフレーションバイアスを示すことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Does structured intent representation generalize across languages and models? We study PPS (Prompt Protocol Specification), a 5W3H-based framework for structured intent representation in human-AI interaction, and extend prior Chinese-only evidence along three dimensions: two additional languages (English and Japanese), a fourth condition in which a user's simple prompt is automatically expanded into a full 5W3H specification by an AI-assisted authoring interface, and a new research question on cross-model output consistency. Across 2,160 model outputs (3 languages x 4 conditions x 3 LLMs x 60 tasks), we find that AI-expanded 5W3H prompts (Condition D) show no statistically significant difference in goal alignment from manually crafted 5W3H prompts (Condition C) across all three languages, while requiring only a single-sentence input from the user. Structured PPS conditions often reduce or reshape cross-model output variance, though this effect is not uniform across languages and metrics; the strongest evidence comes from identifying spurious low variance in unconstrained baselines. We also show that unstructured prompts exhibit a systematic dual-inflation bias: artificially high composite scores and artificially low apparent cross-model variance. These findings suggest that structured 5W3H representations can improve intent alignment and accessibility across languages and models, especially when AI-assisted authoring lowers the barrier for non-expert users.
- Abstract(参考訳): 構造化意図表現は言語やモデルにまたがって一般化されるか?
PPS(Prompt Protocol Specification)、人間のAIインタラクションにおける構造化意図表現のための5W3Hベースのフレームワークについて検討し、2つの追加言語(英語と日本語)、AI支援のオーサリングインタフェースによってユーザの単純なプロンプトが自動的に完全な5W3H仕様に拡張される4番目の条件、およびクロスモデル出力整合性に関する新たな研究課題について述べる。
2160以上のモデル出力(3言語 x 4 条件 x 3 LLMs x 60 タスク)では,AIが拡張した 5W3H プロンプト(コンディションD)は,手作業による 3 つの言語間の 5W3H プロンプト(コンディションC)のゴールアライメントに統計的に有意な差はない。
構造化PSS条件は、しばしばクロスモデル出力のばらつきを減少または再形成するが、この効果は言語やメトリクスに一様ではない。
また、非構造的プロンプトは、人工的に高い合成スコアと人工的に低い見かけのクロスモデル分散という、体系的な二重インフレーションバイアスを示すことを示した。
これらの結果は、構造化された5W3H表現が言語やモデル間の意図的アライメントとアクセシビリティを向上させることを示唆している。
関連論文リスト
- Evaluating 5W3H Structured Prompting for Intent Alignment in Human-AI Interaction [0.0]
我々は人間-AIインタラクションにおける構造化意図表現の枠組みであるPSを評価する。
3つのドメイン(ビジネス、技術、旅行)で60のタスクを調査する。
構造化された意図表現は、人間とAIの相互作用におけるアライメントとユーザビリティを向上させることができる。
論文 参考訳(メタデータ) (2026-03-19T14:41:06Z) - AULLM++: Structural Reasoning with Large Language Models for Micro-Expression Recognition [30.62262381459829]
AULLM++は大規模言語モデル(LLM)を活用した推論指向フレームワークである
AU予測をエビデンス構築、構造モデリング、推論に基づく予測の3段階に定式化する。
AULLM++は、標準ベンチマークで最先端のパフォーマンスを実証する。
論文 参考訳(メタデータ) (2026-03-09T13:45:21Z) - CEI: A Benchmark for Evaluating Pragmatic Reasoning in Language Models [0.28258700614488924]
実用的な推論は、大きな言語モデルでは依然として困難である。
我々は、LLMが現実的な複雑な発話をいかに曖昧にするかを評価するために、300の人間検証シナリオをCEIベンチマークで提示する。
データセットは、職場、家族、社会、サービス設定から引き出された5つの実用的サブタイプ(皮肉/匿名、混成信号、戦略的丁寧さ、受動的攻撃、偏向/ミスディレクション)をカバーしている。
論文 参考訳(メタデータ) (2026-02-14T08:31:19Z) - Parallel Universes, Parallel Languages: A Comprehensive Study on LLM-based Multilingual Counterfactual Example Generation [49.2073409243885]
大規模言語モデル(LLM)は、英語の対物生成に優れ、多言語習熟度を示す。
対象言語における直接生成された反事実と6言語間の英訳によって導出されるものの両方について自動評価を行う。
言語間で生成した偽物に一貫して現れる4つの主要なエラーを識別し分類する。
論文 参考訳(メタデータ) (2026-01-01T08:53:49Z) - BRIDGE: Building Representations In Domain Guided Program Verification [67.36686119518441]
BRIDGEは、検証をコード、仕様、証明の3つの相互接続ドメインに分解する。
提案手法は, 標準誤差フィードバック法よりも精度と効率を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-11-26T06:39:19Z) - Plug-and-Play Clarifier: A Zero-Shot Multimodal Framework for Egocentric Intent Disambiguation [60.63465682731118]
エゴセントリックなAIエージェントのパフォーマンスは、基本的にマルチモーダルな意図のあいまいさによって制限される。
ゼロショットでモジュラーなフレームワークであるPlug-and-Play Clarifierを導入し、問題を個別に解決可能なサブタスクに分解する。
我々のフレームワークは,小言語モデルの意図的明確化性能を約30%向上させ,より大きな言語モデルとの競争力を高める。
論文 参考訳(メタデータ) (2025-11-12T04:28:14Z) - R3: Robust Rubric-Agnostic Reward Models [17.958272227199746]
$shortmethodname$は、ルックスに依存しない、評価次元で一般化可能な新しい報酬モデリングフレームワークで、解釈可能な、推論されたスコアの割り当てを提供する。
私たちのモデル、データ、コードはhttps://github.com/rubricreward/r3.comでオープンソースとして公開されています。
論文 参考訳(メタデータ) (2025-05-19T17:29:03Z) - Are Machines Better at Complex Reasoning? Unveiling Human-Machine Inference Gaps in Entailment Verification [41.330719056639616]
本研究は,多文前提における係り受け検証問題について考察する。
一貫性のないモデル生成有理数の検出などの現代のNLP問題は、複雑なマルチホップ推論を必要とする。
論文 参考訳(メタデータ) (2024-02-06T04:14:09Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - Bidirectional Language Models Are Also Few-shot Learners [54.37445173284831]
SAP(Sequential Autoregressive Prompting)は,双方向モデルの高速化を実現する技術である。
SAPは質問応答と要約に有効であることを示す。
この結果から,より広範な言語モデルの創発的特性として,プロンプトに基づく学習が証明された。
論文 参考訳(メタデータ) (2022-09-29T01:35:57Z) - GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction [107.8262586956778]
言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-06T20:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。