論文の概要: Interleaved Tool-Call Reasoning for Protein Function Understanding
- arxiv url: http://arxiv.org/abs/2601.03604v1
- Date: Wed, 07 Jan 2026 05:34:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.278145
- Title: Interleaved Tool-Call Reasoning for Protein Function Understanding
- Title(参考訳): タンパク質機能理解のためのインターリーブツールコール推論
- Authors: Chuanliu Fan, Zicheng Ma, Huanran Meng, Aijia Zhang, Wenjie Du, Jun Zhang, Yi Qin Gao, Ziqiang Cao, Guohong Fu,
- Abstract要約: PFUAは、問題分解、ツール呼び出し、接地された応答生成を統一するツール拡張タンパク質推論剤である。
4つのベンチマーク実験により、PFUAはテキストのみの推論モデルよりも平均103%向上した。
- 参考スコア(独自算出の注目度): 17.106173909800393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in large language models (LLMs) have highlighted the effectiveness of chain-of-thought reasoning in symbolic domains such as mathematics and programming. However, our study shows that directly transferring such text-based reasoning paradigms to protein function understanding is ineffective: reinforcement learning mainly amplifies superficial keyword patterns while failing to introduce new biological knowledge, resulting in limited generalization. We argue that protein function prediction is a knowledge-intensive scientific task that fundamentally relies on external biological priors and computational tools rather than purely internal reasoning. To address this gap, we propose PFUA, a tool-augmented protein reasoning agent that unifies problem decomposition, tool invocation, and grounded answer generation. Instead of relying on long unconstrained reasoning traces, PFUA integrates domain-specific tools to produce verifiable intermediate evidence. Experiments on four benchmarks demonstrate that PFUA consistently outperforms text-only reasoning models with an average performance improvement of 103%.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、数学やプログラミングのような記号的領域における連鎖推論の有効性を強調している。
しかし,本研究では,このようなテキストベースの推論パラダイムをタンパク質機能理解へ直接移行することは効果がないことを示す。
タンパク質の機能予測は知識集約的な科学的課題であり、純粋に内部の推論ではなく、外部の生物学的前提や計算ツールに依存している、と我々は主張する。
このギャップに対処するために,問題分解,ツール実行,接地された応答生成を統一するツール拡張タンパク質推論剤であるPFUAを提案する。
長い制約のない推論トレースに頼る代わりに、PFUAは検証可能な中間証拠を生成するためにドメイン固有のツールを統合する。
4つのベンチマーク実験により、PFUAはテキストのみの推論モデルよりも平均103%向上した。
関連論文リスト
- Knowledge-Augmented Long-CoT Generation for Complex Biomolecular Reasoning [51.673503054645415]
生体分子機構は、分子間相互作用、シグナルカスケード、代謝経路の多段階的推論を必要とする。
既存のアプローチはしばしばこれらの問題を悪化させる: 推論ステップは生物学的事実から逸脱したり、長い機械的依存関係を捉えるのに失敗する。
本稿では,LLMと知識グラフに基づくマルチホップ推論チェーンを統合したLong-CoT推論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T09:26:32Z) - Understanding Tool-Integrated Reasoning [9.235747697967984]
ツール統合推論がLarge Language Models(LLM)をより有能にする理由を考察する。
LLMはPythonのコードインタープリタのようなツールと統合されているが、なぜこのパラダイムが効果的であるかを説明する原則的な理論が欠落している。
我々は、ツールが経験的かつ実現可能なサポートを厳格に拡張し、純粋テキストモデルの能力天井を壊すことを実証した。
論文 参考訳(メタデータ) (2025-08-26T17:03:46Z) - ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - AnnoDPO: Protein Functional Annotation Learning with Direct Preference Optimization [1.8651695783984825]
タンパク質機能の解読は、タンパク質表現学習の基本的な課題である。
本稿では,タンパク質機能予測のための新しいマルチモーダルフレームワークAnnoDPOを提案する。
提案手法では, アノテーション不足と不均衡という2つの課題を, 嗜好に整合した学習目標を通じて解決する。
論文 参考訳(メタデータ) (2025-06-08T07:59:09Z) - Computational Protein Science in the Era of Large Language Models (LLMs) [54.35488233989787]
計算タンパク質科学(Computational protein science)は、タンパク質配列構造-機能パラダイムにおける知識を明らかにすること、および応用を開発することを目的としている。
最近、言語モデル (Language Models, PLM) は、前例のない言語処理と一般化能力のために、AIのマイルストーンとして登場した。
論文 参考訳(メタデータ) (2025-01-17T16:21:18Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - ProtIR: Iterative Refinement between Retrievers and Predictors for
Protein Function Annotation [38.019425619750265]
本稿では,タンパク質間類似性モデリングを取り入れた関数予測器の改良を目的とした,新しい変分擬似類似性フレームワークProtIRを提案する。
ProtIRは、バニラ予測に基づく手法よりも約10%改善されている。
タンパク質言語モデルに基づく手法と同等の性能を発揮するが、大規模な事前学習は必要としない。
論文 参考訳(メタデータ) (2024-02-10T17:31:46Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。