論文の概要: Bottom-up Domain-specific Superintelligence: A Reliable Knowledge Graph is What We Need
- arxiv url: http://arxiv.org/abs/2507.13966v1
- Date: Fri, 18 Jul 2025 14:30:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.320219
- Title: Bottom-up Domain-specific Superintelligence: A Reliable Knowledge Graph is What We Need
- Title(参考訳): ボトムアップドメイン固有の超知能:信頼できる知識グラフ
- Authors: Bhishma Dedhia, Yuval Kansal, Niraj K. Jha,
- Abstract要約: 本稿では,知識グラフプリミティブから直接タスクを合成するタスク生成パイプラインを提案する。
我々は、ドメイン固有の超知能を示すために、結果のKGグラウンドのカリキュラム上で言語モデルを微調整する。
実験の結果,QwQ-Med-3はICD-Benchカテゴリの最先端推論モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 4.277118023546729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models traditionally used for cross-domain generalization have recently demonstrated task-specific reasoning. However, their top-down training approach on general corpora is insufficient for acquiring abstractions needed for deep domain expertise. This may require a bottom-up approach that acquires expertise by learning to compose simple domain concepts into more complex ones. A knowledge graph (KG) provides this compositional structure, where domain primitives are represented as head-relation-tail edges and their paths encode higher-level concepts. We present a task generation pipeline that synthesizes tasks directly from KG primitives, enabling models to acquire and compose them for reasoning. We fine-tune language models on the resultant KG-grounded curriculum to demonstrate domain-specific superintelligence. While broadly applicable, we validate our approach in medicine, where reliable KGs exist. Using a medical KG, we curate 24,000 reasoning tasks paired with thinking traces derived from diverse medical primitives. We fine-tune the QwQ-32B model on this curriculum to obtain QwQ-Med-3 that takes a step towards medical superintelligence. We also introduce ICD-Bench, an evaluation suite to quantify reasoning abilities across 15 medical domains. Our experiments demonstrate that QwQ-Med-3 significantly outperforms state-of-the-art reasoning models on ICD-Bench categories. Further analysis reveals that QwQ-Med-3 utilizes acquired primitives to widen the performance gap on the hardest tasks of ICD-Bench. Finally, evaluation on medical question-answer benchmarks shows that QwQ-Med-3 transfers acquired expertise to enhance the base model's performance. While the industry's approach to artificial general intelligence (AGI) emphasizes broad expertise, we envision a future in which AGI emerges from the composable interaction of efficient domain-specific superintelligent agents.
- Abstract(参考訳): クロスドメインの一般化に伝統的に用いられてきた言語モデルは、最近タスク固有の推論を実証した。
しかし、一般的なコーパスに対するトップダウントレーニングアプローチは、深いドメインの専門知識に必要な抽象化を取得するには不十分である。
これは、単純なドメイン概念をより複雑なものに構成することを学ぶことによって専門知識を得るボトムアップアプローチを必要とするかもしれません。
知識グラフ(KG)はこの構成構造を提供し、ドメインプリミティブは頭-リレーショナルテールエッジとして表現され、それらのパスはより高レベルな概念をエンコードする。
本稿では,KGプリミティブから直接タスクを生成するタスク生成パイプラインを提案する。
我々は、ドメイン固有の超知能を示すために、結果のKGグラウンドのカリキュラム上で言語モデルを微調整する。
適用範囲は広く,信頼性の高いKGが存在する医療分野でのアプローチを検証する。
医学的KGを用いて,多様な医学的プリミティブから派生した思考トレースと組み合わせた24,000の推論タスクをキュレートする。
本カリキュラムのQwQ-32Bモデルを微調整し,医療超知性への一歩を踏み出したQwQ-Med-3を得る。
また、15の医療領域にまたがる推論能力の定量化のための評価スイートであるICD-Benchについても紹介する。
実験の結果,QwQ-Med-3はICD-Benchカテゴリの最先端推論モデルよりも優れていた。
さらに分析したところ、QwQ-Med-3は、取得したプリミティブを使用して、ICD-Benchの最も難しいタスクのパフォーマンスギャップを広げていることがわかった。
最後に,QwQ-Med-3トランスファーがベースモデルの性能を向上させるための専門知識を得たことを示す。
産業の人工知能(AGI)へのアプローチは幅広い専門性を強調しているが、我々はAGIが効率的なドメイン固有超知能エージェントの構成可能な相互作用から生まれる未来を思い描いている。
関連論文リスト
- Question-Answer Extraction from Scientific Articles Using Knowledge Graphs and Large Language Models [1.8637078358591848]
本稿では,科学的論文から質問と回答のペアを生成するための2つのアプローチを提案する。
最初のアプローチは、質問を生成するためにLarge Language Model(LLM)を使用して、有能な段落を選択することである。
第2のアプローチでは、QA生成に知識グラフ(KG)を活用する。
論文 参考訳(メタデータ) (2025-07-18T11:31:52Z) - How Far Have Medical Vision-Language Models Come? A Comprehensive Benchmarking Study [16.84832179579428]
VLM(Vision-Language Models)は、Webスケールのコーパスを訓練し、自然画像のタスクに優れ、医療に利用されつつある。
本稿では,8つのベンチマークを用いて,オープンソース汎用および医療専門のVLMの総合評価を行う。
まず、大規模な汎用モデルは、いくつかのベンチマークで、すでに医学固有のモデルと一致しているか、あるいは超えている。
第二に、推論のパフォーマンスは理解よりも一貫して低く、安全な意思決定支援にとって重要な障壁を強調します。
論文 参考訳(メタデータ) (2025-07-15T11:12:39Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning [57.873833577058]
医療知識の豊富なマルチモーダルデータセットを構築した。
次に医学専門のMLLMであるLingshuを紹介します。
Lingshuは、医療専門知識の組み込みとタスク解決能力の向上のために、マルチステージトレーニングを行っている。
論文 参考訳(メタデータ) (2025-06-08T08:47:30Z) - M-QALM: A Benchmark to Assess Clinical Reading Comprehension and Knowledge Recall in Large Language Models via Question Answering [14.198330378235632]
我々は,3つのジェネラリストと3つの専門的なバイオメディカルサブドメインにおいて,22のデータセットに関する大規模な実験研究を行うために,複数選択と抽象質問応答を用いた。
15個のLLMの性能の多面的解析により、リコールや理解の向上につながる命令チューニングなどの成功要因が明らかになった。
最近提案されたドメイン適応モデルには十分な知識が欠如している可能性があるが、収集した医療知識データセットを直接微調整することは、奨励的な結果を示している。
我々は、必要な知識を単に思い出し、提示された知識と統合するモデルの能力の間に大きなギャップがあることを明らかにする、スキル指向手動エラー解析で定量的結果を補完する。
論文 参考訳(メタデータ) (2024-06-06T02:43:21Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - QKSA: Quantum Knowledge Seeking Agent [0.0]
量子知識探索エージェント(QKSA)の実装に向けたモチベーションとコアテーマについて述べる。
QKSAは、古典的および量子力学のモデル化に使用できる一般的な強化学習エージェントである。
論文 参考訳(メタデータ) (2021-07-03T13:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。