論文の概要: Mapping the Course for Prompt-based Structured Prediction
- arxiv url: http://arxiv.org/abs/2508.15090v1
- Date: Wed, 20 Aug 2025 22:00:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.10631
- Title: Mapping the Course for Prompt-based Structured Prediction
- Title(参考訳): プロンプトに基づく構造予測のコースのマッピング
- Authors: Matt Pauk, Maria Leonor Pacheco,
- Abstract要約: 本稿では,LLMの予測力と推論手法による構造的整合性を組み合わせることを提案する。
構造的予測目標を用いたキャリブレーションと微調整が,課題に対する性能向上につながることを示す。
- 参考スコア(独自算出の注目度): 5.483149122038912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have been shown to be useful for a variety of language tasks, without requiring task-specific fine-tuning. However, these models often struggle with hallucinations and complex reasoning problems due to their autoregressive nature. We propose to address some of these issues, specifically in the area of structured prediction, by combining LLMs with combinatorial inference in an attempt to marry the predictive power of LLMs with the structural consistency provided by inference methods. We perform exhaustive experiments in an effort to understand which prompting strategies can effectively estimate LLM confidence values for use with symbolic inference, and show that, regardless of the prompting strategy, the addition of symbolic inference on top of prompting alone leads to more consistent and accurate predictions. Additionally, we show that calibration and fine-tuning using structured prediction objectives leads to increased performance for challenging tasks, showing that structured learning is still valuable in the era of LLMs.
- Abstract(参考訳): LLMはタスク固有の微調整を必要とせず、様々な言語タスクに有用であることが示されている。
しかしながら、これらのモデルは、自己回帰的な性質のため、幻覚や複雑な推論問題に苦しむことが多い。
本稿では,LLMの予測能力と推定手法によって提供される構造的整合性とを結合させる試みとして,LLMと組合せ推論を組み合わせた構造的予測の領域において,これらの問題に対処することを提案する。
本研究は, シンボル推論を用いたLCM信頼度を効果的に推定する手法として, 総合的な実験を行い, プロンプトのみにシンボル推論を追加することによって, より一貫性と正確な予測が導かれることを示す。
さらに,構造化予測目標を用いたキャリブレーションと微調整が課題に対する性能の向上につながることを示し,構造化学習はLLMの時代においても有用であることを示す。
関連論文リスト
- Beyond Naïve Prompting: Strategies for Improved Zero-shot Context-aided Forecasting with LLMs [57.82819770709032]
大規模言語モデル (LLM) は、na "ive direct prompting" を通じて効果的な文脈支援予測を行うことができる。
ReDPは、明確な推論トレースを抽出することで、解釈可能性を改善し、コンテキスト上でモデルの推論を評価することができる。
CorDPはLLMを活用して、既存の予測をコンテキストで洗練し、現実の予測パイプラインにおける適用性を高める。
IC-DPは、文脈支援予測タスクの歴史的例を即時に組み込むことを提案し、大規模モデルにおいても精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-13T16:02:55Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。