論文の概要: Slot Filling as a Reasoning Task for SpeechLLMs
- arxiv url: http://arxiv.org/abs/2510.19326v1
- Date: Wed, 22 Oct 2025 07:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.320889
- Title: Slot Filling as a Reasoning Task for SpeechLLMs
- Title(参考訳): 音声LLMの推論課題としてのスロットフィリング
- Authors: Kadri Hacioglu, Manjunath K E, Andreas Stolcke,
- Abstract要約: 本稿では,音声大言語モデル(speechLLM)への推論の統合を提案する。
LLMの最近の発展に触発されて、私たちはスロット充足タスクを複数の推論ステップに分解するためにチェーン・オブ・シント・フレームワークを使用します。
- 参考スコア(独自算出の注目度): 10.898666440393896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose integration of reasoning into speech large language models (speechLLMs) for the end-to-end slot-filling task. Inspired by the recent development of reasoning LLMs, we use a chain-of-thought framework to decompose the slot-filling task into multiple reasoning steps, create a reasoning dataset and apply the supervised fine-tuning strategy to a speechLLM. We distinguish between regular and reasoning speechLLMs and experiment with different types and sizes of LLMs as their text foundation models. We demonstrate performance improvements by introducing reasoning (intermediate) steps. However, we show that a reasoning textual LLM developed mainly for math, logic and coding domains might be inferior as a foundation model for a reasoning speechLLM. We further show that hybrid speechLLMs, built on a hybrid text foundation LLM and fine-tuned to preserve both direct and reasoning modes of operation, have better performance than those fine-tuned employing only one mode of operation.
- Abstract(参考訳): 本稿では,音声大言語モデル(speechLLM)への推論の統合を提案する。
LLMの最近の発展に触発されて、スロット充足タスクを複数の推論ステップに分解し、推論データセットを作成し、教師付き微調整戦略を音声LLMに適用する。
我々は、正規言語と推論言語LLMを区別し、LLMの異なるタイプとサイズをテキスト基盤モデルとして実験する。
推論(中間)ステップを導入することで,パフォーマンスの向上を実証する。
しかし,主に数学,論理学,コーディング領域のために開発された推論テキスト LLM は,推論音声LLM の基礎モデルとして劣る可能性が示唆された。
さらに、ハイブリッドテキスト基盤LLM上に構築され、操作の直接モードと推論モードの両方を保持するように微調整されたハイブリッド音声LLMは、1つの操作モードのみを使用する微調整よりも優れた性能を示す。
関連論文リスト
- Guiding Reasoning in Small Language Models with LLM Assistance [23.3038074903744]
小さな言語モデルは、深く、多段階の論理的推論を必要とするタスクに適していると疑念を抱いた。
本稿では,Small Reasons, Large Hintsというフレームワークについて紹介する。
数学的推論データセットを用いた実験により, ターゲットとなる外部足場の性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2025-04-14T06:32:45Z) - SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs [48.28847964704554]
CoT(Chain-of-Thought)推論により、LLM(Large Language Models)は複雑な推論タスクを解くことができる。
LLMの変更を必要としない連続空間推論のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:52:29Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。