論文の概要: From General Reasoning to Domain Expertise: Uncovering the Limits of Generalization in Large Language Models
- arxiv url: http://arxiv.org/abs/2506.21580v1
- Date: Mon, 16 Jun 2025 21:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.295828
- Title: From General Reasoning to Domain Expertise: Uncovering the Limits of Generalization in Large Language Models
- Title(参考訳): 一般推論からドメインエキスパートへ:大規模言語モデルにおける一般化の限界を明らかにする
- Authors: Dana Alsagheer, Yang Lu, Abdulrahman Kamal, Omar Kamal, Mohammad Kamal, Nada Mansour, Cosmo Yang Wu, Rambiba Karanjai, Sen Li, Weidong Shi,
- Abstract要約: 推論は意思決定の基礎です。
AI技術が進化するにつれて、一般的な推論において優れているようにLLMを訓練する傾向が強まっている。
本研究では、LLMの一般的な推論能力が、ドメイン固有の推論タスクにおけるそれらのパフォーマンスとどのように結びつくかを検討する。
- 参考スコア(独自算出の注目度): 9.678141197095023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have demonstrated remarkable capabilities in various domains. However, effective decision-making relies heavily on strong reasoning abilities. Reasoning is the foundation for decision-making, providing the analytical and logical framework to make sound choices. Reasoning involves analyzing information, drawing inferences, and reaching conclusions based on logic or evidence. Decision-making builds on this foundation by applying the insights from reasoning to select the best course of action among alternatives. Together, these processes create a continuous cycle of thought and action aimed at achieving goals effectively. As AI technology evolves, there is a growing trend to train LLMs to excel in general reasoning. This study explores how the general reasoning capabilities of LLMs connect to their performance in domain-specific reasoning tasks.
- Abstract(参考訳): 近年のLarge Language Models (LLM) の進歩は,様々な領域において顕著な機能を示している。
しかし、効果的な意思決定は強い推論能力に大きく依存している。
推論は意思決定の基礎であり、適切な選択を行うための分析的および論理的枠組みを提供する。
推論には、情報を分析し、推論を描き、論理や証拠に基づいて結論に達することが含まれる。
意思決定はこの基盤の上に構築され、推論からの洞察を適用して、代替案の中から最良の行動経路を選択する。
これらのプロセスは共に、目標を効果的に達成することを目的とした、思考と行動の継続的なサイクルを生み出します。
AI技術が進化するにつれて、一般的な推論において優れているようにLLMを訓練する傾向が強まっている。
本研究では、LLMの一般的な推論能力が、ドメイン固有の推論タスクにおけるそれらのパフォーマンスとどのように結びつくかを検討する。
関連論文リスト
- On the Eligibility of LLMs for Counterfactual Reasoning: A Decompositional Study [15.617243755155686]
対物推論は、大規模言語モデルの推論能力を一般化するための重要な手法として現れてきた。
本稿では, 因果関係の構築から, 逆因果関係の介入に対する推論まで, 逆因果関係の生成を分解する分解戦略を提案する。
論文 参考訳(メタデータ) (2025-05-17T04:59:32Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Logical Reasoning in Large Language Models: A Survey [17.06712393613964]
大規模言語モデル(LLM)における論理的推論の最近の進歩を合成する。
LLMにおける論理的推論の範囲、理論的基礎、および推論の習熟度を評価するために使用されるベンチマークについて概説する。
このレビューは、AIシステムにおける論理的推論を強化するためのさらなる調査の必要性を強調し、今後の方向性を結論付けている。
論文 参考訳(メタデータ) (2025-02-13T09:19:14Z) - CausalEval: Towards Better Causal Reasoning in Language Models [16.55801836321059]
因果推論(CR)は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
言語モデル(LM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力はいまだに不確実である。
因果推論のためのLMの強化を目的とした研究のレビューであるCausalEvalを紹介する。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - Semantic Self-Consistency: Enhancing Language Model Reasoning via Semantic Weighting [5.110108181663884]
Wang et al.の自己整合性フレームワークは、多数決を受ける前に複数の論理をサンプリングすることで、様々なクローズド・アンサーの推論タスクにおけるモデルパフォーマンスを確実に改善する。
我々の研究は意味的自己整合性を導入し、多数決の前に最終的な決定に加えて、これらの理性の両方の理性経路を取り入れ、分析することでこのアプローチを強化します。
論文 参考訳(メタデータ) (2024-10-10T11:58:48Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。