論文の概要: Eliminating Agentic Workflow for Introduction Generation with Parametric Stage Tokens
- arxiv url: http://arxiv.org/abs/2601.09728v1
- Date: Sun, 28 Dec 2025 12:51:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.709795
- Title: Eliminating Agentic Workflow for Introduction Generation with Parametric Stage Tokens
- Title(参考訳): パラメトリックステージトークンを用いた紹介生成のためのエージェントワークフローの除去
- Authors: Meicong Zhang, Tiancheng su, Guoxiu He,
- Abstract要約: 我々は外部エージェントを排除して研究紹介を書くことを提案する。
代わりに、我々はそれらの論理構造を大きな言語モデルにパラメータ化します。
これにより、単一の推論で完全な導入が生成される。
- 参考スコア(独自算出の注目度): 3.6588919376939733
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, using predefined agentic workflows to guide large language models (LLMs) for literature classification and review has become a research focus. However, writing research introductions is more challenging. It requires rigorous logic, coherent structure, and abstract summarization. Existing workflows often suffer from long reasoning chains, error accumulation, and reduced textual coherence. To address these limitations, we propose eliminating external agentic workflows. Instead, we directly parameterize their logical structure into the LLM. This allows the generation of a complete introduction in a single inference. To this end, we introduce the Stage Token for Introduction Generation (STIG). STIG converts the multiple stages of the original workflow into explicit stage signals. These signals guide the model to follow different logical roles and functions during generation. Through instruction tuning, the model learns the mapping between stage tokens and text functions. It also learns the logical order and transition patterns between stages, encoding this knowledge into the model parameters. Experimental results show that STIG can generate multi-stage text in a single inference. It does not require explicit workflow calls. STIG outperforms traditional agentic workflows and other baselines on metrics of semantic similarity and sentence-level structural rationality. The code is provided in the Supplementary Materials.
- Abstract(参考訳): 近年,文献分類やレビューのための大規模言語モデル(LLM)のガイドとして,事前に定義されたエージェントワークフローが研究の焦点となっている。
しかし、研究紹介を書くことはより困難である。
厳密な論理、コヒーレントな構造、抽象的な要約が必要である。
既存のワークフローは、長い推論チェーン、エラーの蓄積、テキストの一貫性の低下に悩まされることが多い。
これらの制約に対処するため,外部エージェントワークフローの排除を提案する。
その代わりに、それらの論理構造を直接 LLM にパラメータ化します。
これにより、単一の推論で完全な導入が生成される。
そこで本研究では,STIG(Stage Token for Introduction Generation)を紹介する。
STIGは元のワークフローの複数のステージを明示的なステージ信号に変換する。
これらの信号は、世代間の異なる論理的役割と機能に従うようモデルに誘導する。
命令チューニングを通じて、モデルはステージトークンとテキスト関数の間のマッピングを学習する。
また、段階間の論理的な順序と遷移パターンを学び、この知識をモデルパラメータにエンコードする。
実験の結果,STIGは複数段階のテキストを単一推論で生成できることがわかった。
明示的なワークフロー呼び出しを必要としない。
STIGは、意味的類似性と文レベルの構造的合理性のメトリクスの伝統的なエージェントワークフローやその他のベースラインよりも優れています。
コードは補助資料に記載されている。
関連論文リスト
- NUM2EVENT: Interpretable Event Reasoning from Numerical time-series [6.45945124018154]
本稿では,数値入力から解釈可能な構造化イベントを推論することを目的とした,数対値推論と復号化の課題を紹介する。
データ不足とセマンティックアライメントの課題に対処するために、推論対応フレームワークを提案する。
我々のモデルは、数値的な変化に対して明確に理由付け、中間的な説明を生成し、構造化された事象仮説を出力する。
論文 参考訳(メタデータ) (2025-10-24T02:57:11Z) - Classifier-Augmented Generation for Structured Workflow Prediction [5.92079054629498]
本稿では,自然言語記述を実行可能なものに翻訳するシステムを提案する。
フローの構造と詳細な構成の両方を自動的に予測する。
これは、ステージ予測、エッジレイアウト、および自然駆動オーサリングのためのプロパティ生成にまたがって詳細な評価を行う最初のシステムである。
論文 参考訳(メタデータ) (2025-10-10T18:38:25Z) - Contextualize-then-Aggregate: Circuits for In-Context Learning in Gemma-2 2B [51.74607395697567]
In-Context Learning (ICL)は、大規模言語モデル(LLM)の興味深い能力である。
我々は5つの自然主義ICLタスクに対してGemma-2 2Bにおける情報フローを因果介入を用いて同定する。
このモデルでは,2段階戦略を用いてタスク情報を推論し,コンテキスト化-then-aggregateと呼ぶ。
論文 参考訳(メタデータ) (2025-03-31T18:33:55Z) - Graph-DPEP: Decomposed Plug and Ensemble Play for Few-Shot Document Relation Extraction with Graph-of-Thoughts Reasoning [34.85741925091139]
Graph-DPEPフレームワークは、自然言語で提示された三重項の説明思想の背景にある。
我々は,サブグラフに埋め込まれた推論的思考を活用することで,型リスト全体の「アンサンブルプレイ」生成を開発する。
論文 参考訳(メタデータ) (2024-11-05T07:12:36Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Online Joint Fine-tuning of Multi-Agent Flows [12.851745991007169]
本稿では,ラーニング・トゥ・サーチフレームワークに触発された全フローのオンライン共同微調整手順について述べる。
このアプローチはシミュレータアクセスを活用して、エピソード全体の好みを減らし、個々のノード出力よりも好みを減らします。
私は、最先端の結果を達成するためのマルチホップQAデータセットMuseicに適用します。
論文 参考訳(メタデータ) (2024-06-06T21:21:03Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。