論文の概要: Debiasing Large Language Models via Adaptive Causal Prompting with Sketch-of-Thought
- arxiv url: http://arxiv.org/abs/2601.08108v1
- Date: Tue, 13 Jan 2026 00:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.997502
- Title: Debiasing Large Language Models via Adaptive Causal Prompting with Sketch-of-Thought
- Title(参考訳): Sketch-of-Thoughtによる適応因果探索による大規模言語モデルの劣化
- Authors: Bowen Li, Ziqi Xu, Jing Ren, Renqiang Luo, Xikun Zhang, Xiuzhen Zhang, Yongli Ren, Feng Xia,
- Abstract要約: 本稿では,Sketch-of-Thought (ACPS) フレームワークを用いた適応因果プロンプトを提案する。
ACPSは冗長なChain-of-Thought(CoT)を簡潔なSketch-of-Thoughtに置き換える。
ACPSは、精度、堅牢性、計算効率の点で、既存のプロンプトベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 18.725256563820952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite notable advancements in prompting methods for Large Language Models (LLMs), such as Chain-of-Thought (CoT), existing strategies still suffer from excessive token usage and limited generalisability across diverse reasoning tasks. To address these limitations, we propose an Adaptive Causal Prompting with Sketch-of-Thought (ACPS) framework, which leverages structural causal models to infer the causal effect of a query on its answer and adaptively select an appropriate intervention (i.e., standard front-door and conditional front-door adjustments). This design enables generalisable causal reasoning across heterogeneous tasks without task-specific retraining. By replacing verbose CoT with concise Sketch-of-Thought, ACPS enables efficient reasoning that significantly reduces token usage and inference cost. Extensive experiments on multiple reasoning benchmarks and LLMs demonstrate that ACPS consistently outperforms existing prompting baselines in terms of accuracy, robustness, and computational efficiency.
- Abstract(参考訳): CoT (Chain-of-Thought) のような大規模言語モデル (LLMs) の手法の顕著な進歩にもかかわらず、既存の戦略は様々な推論タスクにおいて過剰なトークンの使用と限定的な一般化に悩まされている。
これらの制約に対処するために、構造因果モデルを利用して、クエリの応答に対する因果効果を推測し、適切な介入(例えば、標準のフロントドアおよび条件付きフロントドア調整)を適応的に選択する適応因果プロンプト(ACPS)フレームワークを提案する。
この設計により、タスク固有のリトレーニングなしで、不均一なタスクをまたいだ一般化可能な因果推論が可能となる。
冗長CoTを簡潔なSketch-of-Thoughtに置き換えることで、ACPSはトークンの使用量と推論コストを大幅に削減する効率的な推論を可能にする。
複数の推論ベンチマークとLCMの広範な実験により、ACPSは精度、堅牢性、計算効率の点で既存のプロンプトベースラインを一貫して上回ることを示した。
関連論文リスト
- Fast Thinking for Large Language Models [67.7238685892317]
我々は、訓練中にのみ簡潔なCoTスケッチを使用して個別戦略事前のコードブックを学習するフレームワークであるLatent Codebooks for Fast Thinkingを紹介した。
推論では、コードブックから抽出した少数の連続的思考スイッチのモデル条件を1パスにすることで、明確な推論トークンを生成することなく、戦略レベルのガイダンスを可能にする。
論文 参考訳(メタデータ) (2025-09-28T04:19:48Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Think Beyond Size: Adaptive Prompting for More Effective Reasoning [0.0]
本稿では,動的かつ反復的なフレームワークであるAdaptive Promptingを紹介する。
その結果、Adaptive Promptingは、算術的推論(GSM8K、MultiArithm)、論理的推論、コモンセンスタスクなど、様々な推論ベンチマークのパフォーマンスを著しく向上させることを示した。
提案手法は,計算効率を維持しつつ,GPT-4などの大規模モデルと競合する性能を実現する。
論文 参考訳(メタデータ) (2024-10-10T17:14:36Z) - Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in Large Language Models [81.01397924280612]
大規模言語モデル (LLM) は、ステップ・バイ・ステップ・チェーン・オブ・シークレット (CoT) をデモンストレーションとして組み込むことで、様々な推論タスクにおいて高い効果的な性能を達成することができる。
本稿では,イターCoT (Iterative bootstrapping in Chain-of-Thoughts Prompting) を導入する。
論文 参考訳(メタデータ) (2023-04-23T13:54:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。