論文の概要: Read Quietly, Think Aloud: Decoupling Comprehension and Reasoning in LLMs
- arxiv url: http://arxiv.org/abs/2507.03327v1
- Date: Fri, 04 Jul 2025 06:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.686171
- Title: Read Quietly, Think Aloud: Decoupling Comprehension and Reasoning in LLMs
- Title(参考訳): LLMにおける理解と推論の分離
- Authors: Yuanxin Wang, Ganesh Venkatesh,
- Abstract要約: 大規模言語モデル(LLM)は、テキストの理解と高品質な応答の生成に顕著な熟練性を示した。
本稿では,LLMを内部処理に類似の能力で実装する方法について検討する。
- 参考スコア(独自算出の注目度): 3.153044931505783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable proficiency in understanding text and generating high-quality responses. However, a critical distinction from human cognition is their typical lack of a distinct internal `reading' or deliberation phase before `speaking' (i.e., generating text). Humans often engage in silent reading to comprehend context and formulate thoughts prior to articulation. This paper investigates methods to imbue LLMs with a similar capacity for internal processing. We introduce and evaluate techniques that encourage LLMs to `read silently.' Our findings indicate that even a straightforward approach, such as providing the model with an initial contextual prompt or `reading space' before it begins predicting subsequent tokens for the final output, can yield significant performance improvements. We further enhance this concept by developing a `reading buddy' architecture, where an auxiliary component silently processes the input and provides refined contextual insights to the primary generation model. These approaches aim to foster deeper understanding from LLMs so that they can produce better reasoned responses, moving them one step closer to more human-like text processing. Our results indicate that these simple techniques can provide surprisingly strong impact on accuracy with multiple point accuracy boost.
- Abstract(参考訳): 大規模言語モデル (LLM) は、テキストの理解と高品質な応答生成に顕著な能力を示した。
しかしながら、人間の認識と批判的な区別は、内的な「読み」または「熟考」の段階が「話し」(すなわち、テキストを生成する)の前に欠如していることである。
人間はしばしば、文脈を理解し、調音の前に思考を定式化するために黙読する。
本稿では,LLMを内部処理に類似の能力で実装する方法について検討する。
LLMを「静かに読む」ように促す手法を導入・評価する。
最終的な結果から,初期状態のプロンプトをモデルに提供する,あるいは最終結果のトークンの予測を開始する前に‘読み取りスペース’をモデルに提供するなど,直接的なアプローチであっても,大幅なパフォーマンス向上が期待できることが示唆された。
我々は、補助的なコンポーネントが静かに入力を処理し、一次生成モデルに洗練された文脈的洞察を提供する「読み取りバディ」アーキテクチャを開発することにより、この概念をさらに強化する。
これらのアプローチは、LCMからより深い理解を深め、より良い推論された応答を生成できるようにし、より人間的なテキスト処理に一歩近づくことを目的としている。
以上の結果から,これらの単純な手法は,複数点精度を向上した精度に驚くほど強い影響を与えることが示唆された。
関連論文リスト
- END: Early Noise Dropping for Efficient and Effective Context Denoising [60.24648712022382]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
彼らはしばしば、出力品質を低下させる入力シーケンスにおける無関係またはノイズの文脈に気を散らされる。
我々は,LLMの微調整を必要とせず,この問題を緩和するための新しい手法であるEarly Noise Dropping (textscEND)を紹介した。
論文 参考訳(メタデータ) (2025-02-26T08:07:17Z) - Human Speech Perception in Noise: Can Large Language Models Paraphrase to Improve It? [26.835947209927273]
LLM(Large Language Models)は、形式性などのスタイル属性を変換することで、形式的あるいは非公式なテキストを生成することができる。
本研究は,騒音における人間の発話知覚を改善するために,音響的に理解可能なパラフレーズを生成する新しいタスクにおいて,LLMを評価するための最初の研究である。
提案手法は,バブルノイズを伴う聴取条件において,信号-雑音比(SNR)-5dBで高い歪みを呈する発話を言い換えることにより,人間の音声知覚の40%の相対的な改善をもたらした。
論文 参考訳(メタデータ) (2024-08-07T18:24:23Z) - Information Re-Organization Improves Reasoning in Large Language Models [22.2946033364035]
大規模言語モデル(LLM)の推論能力を高める情報再構成(InfoRE)手法を提案する。
本手法では,文書や段落などの文脈的内容から論理的関係を抽出し,ノイズを最小限に抑えるために冗長な内容を抽出する。
Llama2-70B, GPT-3.5, GPT-4 を用いて, 各種マルチホップ推論タスクにおいて, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-04-22T08:47:27Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - Self-Convinced Prompting: Few-Shot Question Answering with Repeated
Introspection [13.608076739368949]
本稿では,大規模事前学習型言語モデルの可能性を活用する新しいフレームワークを提案する。
我々のフレームワークは、典型的な数発の連鎖プロンプトの出力を処理し、応答の正しさを評価し、回答を精査し、最終的には新しい解を生成する。
論文 参考訳(メタデータ) (2023-10-08T06:36:26Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。