論文の概要: Cognitively Layered Data Synthesis for Domain Adaptation of LLMs to Space Situational Awareness
- arxiv url: http://arxiv.org/abs/2603.09231v1
- Date: Tue, 10 Mar 2026 06:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.079616
- Title: Cognitively Layered Data Synthesis for Domain Adaptation of LLMs to Space Situational Awareness
- Title(参考訳): 空間的状況認識に対するLLMの領域適応のための認知層データ合成
- Authors: Ding Linghu, Cheng Wang, Da Fan, Wei Shi, Kaifeng Yin, Xiaoliang Xue, Fan Yang, Haiyi Ren, Cong Zhang,
- Abstract要約: BD-FDGは、不完全な知識カバレッジ、浅い認知深度、限られた品質管理性に対処するフレームワークである。
約230KサンプルのドメインデータセットであるSSA-SFTとQwen3-8Bを微調整してSSA-LLM-8Bを得る。
その結果, SSA-LLM-8Bでは, BLEU-1の相対的な改善が144% (非思考) と176% (思考) で達成された。
- 参考スコア(独自算出の注目度): 8.378095304375154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) demonstrate exceptional performance on general-purpose tasks. however, transferring them to complex engineering domains such as space situational awareness (SSA) remains challenging owing to insufficient structural alignment with mission chains, the absence of higher-order cognitive supervision, and poor correspondence between data quality criteria and engineering specifications. The core bottleneck is the construction of high-quality supervised fine-tuning (SFT) datasets. To this end, we propose BD-FDG (Bloom's Taxonomy-based Domain-specific Fine-tuning Data Generation), a framework that addresses incomplete knowledge coverage, shallow cognitive depth, and limited quality controllability through three mechanisms: structured knowledge organization, cognitively layered question modeling, and automated quality control. The framework uses a knowledge tree to ensure structured corpus coverage, designs a question generation scheme spanning nine categories and six cognitive levels from Remember to Create to produce samples with a continuous difficulty gradient, and applies a multidimensional scoring pipeline to enforce domain rigor and consistency. Using BD-FDG, we construct SSA-SFT, a domain dataset of approximately 230K samples, and fine-tune Qwen3-8B to obtain SSA-LLM-8B. Experiments show that SSA-LLM-8B achieves relative BLEU-1 improvements of 144\% (no-think) and 176\% (think) on the domain test set and a win rate of 82.21\% over the baseline in arena comparisons, while largely preserving general benchmark performance (MMLU-Pro, MATH-500). These results validate SFT data construction driven by cognitive layering as an effective paradigm for complex engineering domains and provide a transferable framework for domain-specific LLM adaptation.
- Abstract(参考訳): 大規模言語モデル(LLM)は汎用タスクにおいて例外的な性能を示す。
しかし、宇宙状況認識(SSA)のような複雑なエンジニアリング領域への転送は、ミッションチェーンとの構造的整合性の欠如、高次の認知監督の欠如、データ品質基準とエンジニアリング仕様の不一致など、依然として困難である。
中心となるボトルネックは、高品質の教師付き微調整(SFT)データセットの構築である。
この目的のために,BD-FDG (Bloom's Taxonomy-based Domain-specific Fine-tuning Data Generation) という,不完全な知識カバレッジ,浅い認知深度,限定的な品質管理性を扱うフレームワークを提案する。
このフレームワークは、構造化されたコーパスのカバレッジを確保するためにナレッジツリーを使用し、9つのカテゴリと6つの認知レベルからなる質問生成スキームを設計し、連続的な難易度勾配のサンプルを生成し、ドメインの厳密性と一貫性を強制するために多次元のスコアリングパイプラインを適用している。
BD-FDGを用いて、約230KサンプルのドメインデータセットであるSSA-SFTと、Qwen3-8Bを用いてSSA-LLM-8Bを得る。
実験の結果、SSA-LLM-8Bは、ドメインテストセットで144\%(非考え)と176\%(考え)のBLEU-1の相対的な改善を達成し、アリーナ比較ではベースラインで82.21\%の勝利率を達成し、一般的なベンチマーク性能(MMLU-Pro、MATH-500)を保った。
これらの結果は,認知階層化によって駆動されるSFTデータ構築を,複雑な工学領域の効果的なパラダイムとして検証し,ドメイン固有のLLM適応のための転送可能なフレームワークを提供する。
関連論文リスト
- Rethinking Federated Graph Foundation Models: A Graph-Language Alignment-based Approach [8.517604507672262]
フェデレーショングラフ基礎モデル(FedGFMs)の最近の研究は、グラフ基礎モデルを訓練するために集中的なデータストレージを持つという理想的かつ持続不可能な仮定を破っている。
ベクトル量子化されたバックボーンを経由した離散トークン空間上の一般化可能な知識が、量子化過程中に不可逆的な知識損失に悩まされるという研究は、現存する。
論文 参考訳(メタデータ) (2026-01-29T07:50:00Z) - Closed-Loop LLM Discovery of Non-Standard Channel Priors in Vision Models [48.83701310501069]
大規模言語モデル(LLM)はニューラルアーキテクチャサーチ(NAS)に対する変換的アプローチを提供する
我々は、LLMが性能テレメトリに基づいてアーキテクチャ仕様を洗練する条件付きコード生成タスクのシーケンスとして検索を定式化する。
AST(Abstract Syntax Tree)変異を用いて,有効かつ整合性のあるアーキテクチャの膨大なコーパスを生成する。
CIFAR-100の実験結果は、この手法の有効性を検証し、精度の統計的に有意な改善をもたらすことを示した。
論文 参考訳(メタデータ) (2026-01-13T13:00:30Z) - Consolidation or Adaptation? PRISM: Disentangling SFT and RL Data via Gradient Concentration [56.074760766965085]
PRISMは、モデルの既存の知識との認知的対立度に基づいてデータを調停する動的認識フレームワークを実現する。
この結果から,内部最適化方式に基づくデータ分離が,スケーラブルでロバストなエージェントアライメントに不可欠であることが示唆された。
論文 参考訳(メタデータ) (2026-01-12T05:43:20Z) - Knowledge-to-Data: LLM-Driven Synthesis of Structured Network Traffic for Testbed-Free IDS Evaluation [0.4893345190925178]
本稿では,Large Language Models (LLMs) が構造化された合成ネットワークトラフィックデータセットを生成するための制御された知識データエンジンとして機能するかどうかを検討する。
本稿では,プロトコル文書,アタックセマンティクス,および明示的な統計的ルールを組み合わせた手法を提案する。
その結果、明示的な制約の下では、LLM生成データセットは実際のネットワークトラフィックの統計的および構造的特性を正確に近似することができることがわかった。
論文 参考訳(メタデータ) (2026-01-08T15:31:33Z) - From Indoor to Open World: Revealing the Spatial Reasoning Gap in MLLMs [65.04549036809557]
我々は、ステレオカメラ、LiDAR、IMU/GPSセンサーで撮影された歩行者の視線映像から構築したベンチマークを紹介する。
このデータセットは、計量的に正確な3D情報を提供し、空間的推論質問の自動生成を可能にする。
評価の結果、構造化屋内ベンチマークで観測された性能向上は、オープンワールド環境では消滅することが明らかとなった。
論文 参考訳(メタデータ) (2025-12-22T18:58:12Z) - CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - Loong: Synthesize Long Chain-of-Thoughts at Scale through Verifiers [103.4410890572479]
スケーラブルな合成データ生成と検証のためのオープンソースのフレームワークであるLoong Projectを紹介します。
LoongBenchは、12のドメインにまたがる8,729の人為的なサンプルを含む、キュレートされたシードデータセットである。
LoongEnvはモジュラー合成データ生成環境であり、新しい質問応答コードのトリプルを生成する複数のプロンプト戦略をサポートする。
論文 参考訳(メタデータ) (2025-09-03T06:42:40Z) - LMAR: Language Model Augmented Retriever for Domain-specific Knowledge Indexing [42.51773265892766]
Retrieval Augmented Generation (RAG) システムは、事前訓練された埋め込みの性能劣化のためにドメイン固有の知識に苦しむことが多い。
LLM誘導データ合成と対比埋め込み適応と効率的なテキストクラスタリングを組み合わせることで、これらの課題に対処するモデルに依存しないフレームワークであるLMAR(Language Model Augmented Retriever)を提案する。
論文 参考訳(メタデータ) (2025-08-04T16:59:43Z) - DREAMS: Density Functional Theory Based Research Engine for Agentic Materials Simulation [1.3821435284269523]
エージェント材料スクリーニングのためのDFTベースリサーチエンジン(DREAMS)について紹介する。
DREAMSはDFTシミュレーションのための階層的マルチエージェントフレームワークであり、LLM(Central Large Language Model)プランナーエージェントとドメイン固有のLLMエージェントを組み合わせたものである。
DREAMSをSol27LC格子定数ベンチマークで検証し,人間のDFT専門家と比較すると平均誤差を1%以下に抑えることができた。
論文 参考訳(メタデータ) (2025-07-18T15:26:04Z) - A Large Language Model-Empowered Agent for Reliable and Robust Structural Analysis [14.754785659805869]
大規模言語モデル(LLM)は、様々なオープンドメインタスクにまたがる顕著な能力を示してきたが、土木工学のような専門分野への応用は、いまだに未解明のままである。
本稿では, ビーム構造解析におけるLCMの信頼性とロバスト性を評価することによって, このギャップを埋める。
実験の結果, エージェントはベンチマークデータセット上で99.0%を超える精度を達成し, 多様な条件で信頼性と堅牢性を示すことがわかった。
論文 参考訳(メタデータ) (2025-06-27T04:16:53Z) - TopoFR: A Closer Look at Topology Alignment on Face Recognition [58.45515807380505]
PTSAと呼ばれるトポロジカル構造アライメント戦略とSDEという硬質試料マイニング戦略を利用する新しいFRモデルであるTopoFRを提案する。
PTSAは永続ホモロジーを用いて入力空間と潜在空間の位相構造を整列し、構造情報を効果的に保存し、FRモデルの一般化性能を向上させる。
一般的な顔のベンチマーク実験の結果は、最先端の手法よりもTopoFRの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-10-14T14:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。