論文の概要: TORSO: Template-Oriented Reasoning Towards General Tasks
- arxiv url: http://arxiv.org/abs/2509.09448v2
- Date: Fri, 12 Sep 2025 14:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 12:05:48.668307
- Title: TORSO: Template-Oriented Reasoning Towards General Tasks
- Title(参考訳): TORSO: 一般的なタスクに向けたテンプレート指向の推論
- Authors: Minhyuk Kim, Seungyoon Lee, Heuiseok Lim,
- Abstract要約: テンプレート指向推論(TORSO)を導入し、内部推論能力を利用して、手動で数ショットの例を作成することなく、様々なタスクにまたがる適切な応答を生成するモデルを提案する。
実験の結果,TORSO は多種多様な LLM ベンチマークにおいて,合理的な有理性で高い性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 23.681707595200265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The approaches that guide Large Language Models (LLMs) to emulate human reasoning during response generation have emerged as an effective method for enabling them to solve complex problems in a step-by-step manner, thereby achieving superior performance. However, most existing approaches using few-shot prompts to generate responses heavily depend on the provided examples, limiting the utilization of the model's inherent reasoning capabilities. Moreover, constructing task-specific few-shot prompts is often costly and may lead to inconsistencies across different tasks. In this work, we introduce Template-Oriented Reasoning (TORSO), which elicits the model to utilize internal reasoning abilities to generate proper responses across various tasks without the need for manually crafted few-shot examples. Our experimental results demonstrate that TORSO achieves strong performance on diverse LLMs benchmarks with reasonable rationales.
- Abstract(参考訳): 応答生成における人間の推論をエミュレートするための大規模言語モデル(LLM)を導くアプローチは、ステップバイステップで複雑な問題を解決し、優れた性能を達成するための効果的な方法として現れてきた。
しかしながら、ほとんどショットプロンプトを使用して応答を生成する既存のアプローチは、提案された例に大きく依存し、モデル固有の推論能力の利用を制限する。
さらに、タスク固有の少数ショットプロンプトの構築にはコストがかかり、異なるタスク間での不整合が発生する可能性がある。
本研究では, テンプレート指向推論(TORSO)を導入し, 内部推論能力を利用して様々なタスクに対して, 手動で数ショットの例を作成することなく適切な応答を生成する手法を提案する。
実験の結果,TORSO は多種多様な LLM ベンチマークにおいて,合理的な有理性で高い性能を発揮することが示された。
関連論文リスト
- Reference-Guided Verdict: LLMs-as-Judges in Automatic Evaluation of Free-Form Text [12.879551933541345]
大きな言語モデル(LLM)は、人間のような会話を生成できる。
BLEUやROUGEのような従来のメトリクスは、このような生成出力の微妙な意味と文脈的な豊かさを捉えるには不十分である。
本稿では,複数のLSM-as-judgesを活用することで,評価プロセスを自動化する基準誘導型判定手法を提案する。
論文 参考訳(メタデータ) (2024-08-17T16:01:45Z) - Towards Hierarchical Multi-Agent Workflows for Zero-Shot Prompt Optimization [19.200989737492595]
大規模言語モデル(LLM)は、ユーザの質問に答える上で大きな進歩を見せている。
LLMの出力の品質はプロンプト設計に大きく依存しており、優れたプロンプトによってLLMが非常に難しい問題に正しく答えられる可能性がある。
LLMの階層構造を提案し、まず、正確な指示と正確な単語を階層的に生成し、次に、このプロンプトを用いてユーザクエリの最終回答を生成する。
論文 参考訳(メタデータ) (2024-05-30T17:05:45Z) - Enhancing Chain of Thought Prompting in Large Language Models via Reasoning Patterns [26.641713417293538]
Chain of Thought (CoT) は言語モデルに論理的推論を奨励する。
我々は,CoTの促進効果を高めるために推論パターンを活用することを提案する。
論文 参考訳(メタデータ) (2024-04-23T07:50:00Z) - Towards Generalist Prompting for Large Language Models by Mental Models [105.03747314550591]
大規模言語モデル(LLM)は多くのタスクにおいて素晴らしいパフォーマンスを示している。
最適な性能を達成するには、特別に設計されたプロンプト法が必要である。
本稿では,最適あるいは準最適性能を実現する設計原理に基づくジェネラリストプロンプトの概念を紹介する。
論文 参考訳(メタデータ) (2024-02-28T11:29:09Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in Large Language Models [81.01397924280612]
大規模言語モデル (LLM) は、ステップ・バイ・ステップ・チェーン・オブ・シークレット (CoT) をデモンストレーションとして組み込むことで、様々な推論タスクにおいて高い効果的な性能を達成することができる。
本稿では,イターCoT (Iterative bootstrapping in Chain-of-Thoughts Prompting) を導入する。
論文 参考訳(メタデータ) (2023-04-23T13:54:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。