論文の概要: BRAID: Bounded Reasoning for Autonomous Inference and Decisions
- arxiv url: http://arxiv.org/abs/2512.15959v1
- Date: Wed, 17 Dec 2025 20:46:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.821177
- Title: BRAID: Bounded Reasoning for Autonomous Inference and Decisions
- Title(参考訳): BRAID: 自律推論と決定のための境界推論
- Authors: Armağan Amcalar, Eyup Cinar,
- Abstract要約: 本稿では,BRAIDを用いた構造化プロンプトに関する研究 (Au Tonomous Inference and Decisionsのための境界推論)
BRAID は Mermaid ベースの命令グラフを用いた有界推論フレームワークを導入している。
構成機械可読プロンプトは,生産システムにおけるエージェントの推論精度とコスト効率を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit nonlinear relationships between performance, cost, and token usage. This paper presents a quantitative study on structured prompting using BRAID (Bounded Reasoning for Au tonomous Inference and Decisions) across multiple GPT model tiers, eval uated on the AdvancedIF, GSM-Hard, and the SCALE MultiChallenge benchmark datasets. BRAID introduces a bounded reasoning framework using Mermaid-based instruction graphs that enable models to reason struc turally rather than through unbounded natural-language token expansion. We show that structured machine-readable prompts substantially increase reasoning accuracy and cost efficiency for agents in production systems. The findings establish BRAID as an effective and scalable technique for optimizing inference efficiency in autonomous agent systems. All datasets and detailed result logs are available at https://benchmark.openserv.ai.
- Abstract(参考訳): 大規模言語モデル(LLM)は、性能、コスト、トークン使用率の非線形関係を示す。
本稿では,複数のGPTモデル層にまたがるBRAID (Bounded Reasoning for Au tonomous Inference and Decisions) を用いた構造化プロンプトの定量的検討を行い,AdvancedIF,GSM-Hard,SCALE MultiChallengeベンチマークデータセットを用いて評価を行った。
BRAIDはMermaidベースの命令グラフを用いた有界推論フレームワークを導入し、非有界な自然言語トークン拡張を経由するのではなく、モデルを乱数的に推論できるようにする。
構成機械可読プロンプトは,生産システムにおけるエージェントの推論精度とコスト効率を大幅に向上させることを示す。
これらの結果は,自律エージェントシステムにおける推論効率を最適化するための,効果的でスケーラブルな手法として,BRAIDを確立している。
すべてのデータセットと詳細な結果ログはhttps://benchmark.openserv.ai.comで公開されている。
関連論文リスト
- Instruction-Tuning Open-Weight Language Models for BPMN Model Generation [0.0]
命令チューニングによって適応されたオープンウェイトな大規模言語モデルが高品質なBPMNプロセスモデルを生成することができるかどうかを検討する。
InstruBPMは、ペア化されたテキストダイアグラムデータを作成し、オープンソースの大規模言語モデルをチューニングする再現可能なアプローチである。
調整済みモデルと未調整のオープンウェイトベースラインと、一貫したプロンプトレジームの下で強力なプロプライエタリモデルを比較した。
論文 参考訳(メタデータ) (2025-12-12T22:07:51Z) - TableMind: An Autonomous Programmatic Agent for Tool-Augmented Table Reasoning [10.267950603662776]
TableMindは、データ分析と正確な数値推論のために、セキュアなサンドボックス環境で、マルチターンツールの実行、書き込み、実行を自律的に実行する、ツール統合テーブル推論エージェントである。
これらの機能を実現するために、我々は強力な事前学習言語モデルの上に構築された2段階の微調整パラダイムを採用する。
論文 参考訳(メタデータ) (2025-09-08T02:00:31Z) - SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - ZEBRA: Leveraging Model-Behavioral Knowledge for Zero-Annotation Preference Dataset Construction [2.970904425631548]
ZEBRAは、モデル行動知識を活用することにより、嗜好データを構成するモデルビヘイビアワイドゼロアノテーションフレームワークである。
ZEBRAは、元のモデルの品質と類似性を評価し、完全にインスタンスレベルのアノテーションをバイパスすることで、レスポンスペアをバイナライズする。
論文 参考訳(メタデータ) (2025-02-26T01:36:40Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - A Fast and Robust BERT-based Dialogue State Tracker for Schema-Guided
Dialogue Dataset [8.990035371365408]
本稿では,目標指向対話システムにおける状態追跡のための高速かつ堅牢なBERTベースモデルであるFastSGTを紹介する。
提案モデルは自然言語記述を含むGuided Dialogueデータセットのために設計されている。
本モデルでは,精度を著しく向上しつつ,計算およびメモリ消費の面で効率を保っている。
論文 参考訳(メタデータ) (2020-08-27T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。