論文の概要: ASDA: Automated Skill Distillation and Adaptation for Financial Reasoning
- arxiv url: http://arxiv.org/abs/2603.16112v1
- Date: Tue, 17 Mar 2026 04:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.099303
- Title: ASDA: Automated Skill Distillation and Adaptation for Financial Reasoning
- Title(参考訳): ASDA:金融推論におけるスキル蒸留と適応の自動化
- Authors: Tik Yu Yim, Wenting Tan, Sum Yee Chan, Tak-Wah Lam, Siu Ming Yiu,
- Abstract要約: 構造化されたスキルアーティファクトを自動的に生成するフレームワークであるASDA(Automated Skill Distillation and Adaptation)を紹介する。
教師モデルは、財務的推論タスクにおいて、学生モデルの失敗を分析する。
ASDAは算術的推論では+17.33%、非算術的推論では+5.95%の改善を達成している。
- 参考スコア(独自算出の注目度): 12.07645818151562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting large language models (LLMs) to specialized financial reasoning typically requires expensive fine-tuning that produces model-locked expertise. Training-free alternatives have emerged, yet our experiments show that leading methods (GEPA and ACE) achieve only marginal gains on the FAMMA financial reasoning benchmark, exposing the limits of unstructured text optimization for complex, multi-step domain reasoning. We introduce Automated Skill Distillation and Adaptation (ASDA), a framework that automatically generates structured skill artifacts through iterative error-corrective learning without modifying model weights. A teacher model analyzes a student model's failures on financial reasoning tasks, clusters errors by subfield and error type, and synthesizes skill files containing reasoning procedures, code templates, and worked examples, which are dynamically injected during inference. Evaluated on FAMMA, ASDA achieves up to +17.33% improvement on arithmetic reasoning and +5.95% on non-arithmetic reasoning, substantially outperforming all training-free baselines. The resulting skill artifacts are human-readable, version-controlled, and compatible with the Agent Skills open standard, offering any organization with a labeled domain dataset a practical and auditable path to domain adaptation without weight access or retraining.
- Abstract(参考訳): 大規模言語モデル(LLM)を専門の財務推論に適用するには、モデルロックされた専門知識を生み出す高価な微調整が必要となる。
トレーニング不要の代替案が登場したが,本実験では,FAMMAの財務推論ベンチマークにおいて,先行手法(GEPAとACE)が限界的な利得しか達成せず,複雑な多段階ドメイン推論のための非構造化テキスト最適化の限界が明らかにされている。
モデル重みを変更せずに反復的誤り訂正学習により構造化されたスキルアーティファクトを自動的に生成するフレームワークであるASDA(Automated Skill Distillation and Adaptation)を紹介する。
教師モデルは、財務推論タスク、サブフィールドとエラータイプによるクラスタエラー、および推論中に動的に注入される推論手順、コードテンプレート、作業例を含むスキルファイルを合成する。
FAMMAでの評価では、算術的推論では+17.33%、非算術的推論では+5.95%の改善が達成され、トレーニングなしのベースラインではかなり上回っている。
結果として得られたスキルアーティファクトは、人間可読性、バージョン管理、Agens Skillsオープンスタンダードとの互換性があり、ラベル付きドメインデータセットを持つすべての組織に、ウェイトアクセスや再トレーニングなしに、実用的な、監査可能なドメイン適応パスを提供する。
関連論文リスト
- Generating Data-Driven Reasoning Rubrics for Domain-Adaptive Reward Modeling [21.45871501724415]
高精度な推論モデルエラーを自動的に構築するデータ駆動型手法を提案する。
ラグビーはより強力なLSM-as-judge報酬関数を構築するのに使うことができる。
この拡張は、ゴールドラベルの完全なデータセットなしで複雑な技術的問題を解決するモデルを教えるための扉を開く。
論文 参考訳(メタデータ) (2026-02-06T15:51:52Z) - Autoformalizer with Tool Feedback [52.334957386319864]
自動形式化は、数学的問題を自然言語から形式的ステートメントに変換することによって、ATP(Automated Theorem Proving)のデータ不足に対処する。
既存のフォーミュラライザは、構文的妥当性とセマンティック一貫性を満たす有効なステートメントを一貫して生成することに苦慮している。
本稿では,ツールフィードバックを用いたオートフォーマライザ (ATF) を提案する。
論文 参考訳(メタデータ) (2025-10-08T10:25:12Z) - MAB Optimizer for Estimating Math Question Difficulty via Inverse CV without NLP [3.9566483499208633]
本研究では,強化学習に基づくマルチアーメッドバンド(MAB)フレームワークであるEducands(APME)のパッシブ対策のアプローチを紹介する。
変動の逆係数をリスク調整計量として活用することにより、モデルは適応的評価のための説明可能でスケーラブルなメカニズムを提供する。
論文 参考訳(メタデータ) (2025-08-26T13:23:31Z) - Auto-Search and Refinement: An Automated Framework for Gender Bias Mitigation in Large Language Models [43.20359264464913]
巨大なテキストコーパス上でのLLMの事前学習は、自然言語処理能力を高めるが、社会的バイアスを符号化するリスクを増大させる。
FaIRMakerは、Fairwordsを自動的に検索し、動的に洗練し、性バイアスを効果的に軽減することを示した。
論文 参考訳(メタデータ) (2025-02-17T08:44:04Z) - A Comparative Analysis of Instruction Fine-Tuning LLMs for Financial Text Classification [0.8192907805418583]
大きな言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクにまたがる印象的な機能を示している。
本研究は,財務テキスト分類作業における指導用微調整の有効性について検討した。
論文 参考訳(メタデータ) (2024-11-04T18:06:36Z) - Evaluating Mathematical Reasoning Beyond Accuracy [50.09931172314218]
推論ステップの品質を評価するための新しい方法論であるReasonEvalを紹介します。
ReasonEvalはメタ評価データセットのベースライン手法よりも一貫して優れていることを示す。
我々は、ReasonEvalがデータ選択において重要な役割を果たすことを観察する。
論文 参考訳(メタデータ) (2024-04-08T17:18:04Z) - An Empirical Study of Automatic Post-Editing [56.86393786396992]
APEは、機械翻訳出力のエラーを自動的に修正することで、手作業による後処理の労力を削減することを目的としている。
真のトレーニングデータの不足を軽減するため、現在のAPEシステムの多くは、大規模な人工コーパスを生成するためにデータ拡張手法を採用している。
本研究では,既存のAPEシステムにおける問題点を解析するために,難解なAPEデータセット上での最先端のAPEモデルの出力について検討する。
論文 参考訳(メタデータ) (2022-09-16T07:38:27Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z) - Learning to Perturb Word Embeddings for Out-of-distribution QA [55.103586220757464]
本論文では,入力問題と文脈の単語埋め込みを意味論を変化させることなく学習するノイズ発生器に基づく簡便かつ効果的なDA法を提案する。
ひとつのソースデータセットに,5つの異なるターゲットドメインに埋め込むことで,トレーニングされたQAモデルのパフォーマンスを検証する。
特に、私たちのトレーニングを受けたモデルは、240K以上の人工的なQAペアでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T14:12:26Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。