論文の概要: From Reasoning to Learning: A Survey on Hypothesis Discovery and Rule Learning with Large Language Models
- arxiv url: http://arxiv.org/abs/2505.21935v1
- Date: Wed, 28 May 2025 03:40:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.396904
- Title: From Reasoning to Learning: A Survey on Hypothesis Discovery and Rule Learning with Large Language Models
- Title(参考訳): 推論から学習へ:大規模言語モデルを用いた仮説発見とルール学習に関する調査
- Authors: Kaiyu He, Zhiyu Chen,
- Abstract要約: 人工知能(AGI)の追求において、新たな知識を学習し、推論し、生成するモデルの必要性が高まっている。
このサーベイは、大規模言語モデルに基づく仮説発見を調べるための構造化レンズを提供する。
仮説生成、適用、検証における既存の作業を合成し、重要な成果と臨界ギャップの両方を特定します。
- 参考スコア(独自算出の注目度): 13.343562681680426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the advent of Large Language Models (LLMs), efforts have largely focused on improving their instruction-following and deductive reasoning abilities, leaving open the question of whether these models can truly discover new knowledge. In pursuit of artificial general intelligence (AGI), there is a growing need for models that not only execute commands or retrieve information but also learn, reason, and generate new knowledge by formulating novel hypotheses and theories that deepen our understanding of the world. Guided by Peirce's framework of abduction, deduction, and induction, this survey offers a structured lens to examine LLM-based hypothesis discovery. We synthesize existing work in hypothesis generation, application, and validation, identifying both key achievements and critical gaps. By unifying these threads, we illuminate how LLMs might evolve from mere ``information executors'' into engines of genuine innovation, potentially transforming research, science, and real-world problem solving.
- Abstract(参考訳): LLM(Large Language Models)の出現以来、これらのモデルが真に新しい知識を発見できるかどうかという疑問を解き放ちながら、命令追従能力と推論能力の改善に重点を置いてきた。
人工知能(AGI)の追求において、命令の実行や情報検索だけでなく、世界に対する理解を深める新しい仮説や理論を定式化することによって、新たな知識を学習、推論、生成するモデルの必要性が高まっている。
パースの誘引、推論、誘導の枠組みで導かれたこの調査は、LLMに基づく仮説発見を調べるための構造化レンズを提供する。
仮説生成、適用、検証における既存の作業を合成し、重要な成果と臨界ギャップの両方を特定します。
これらのスレッドを統一することで、LLMが単なる‘情報執行者’から真のイノベーションのエンジンへとどのように進化し、研究、科学、現実世界の問題解決を変革する可能性があるかを照明します。
関連論文リスト
- Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study [50.065744358362345]
大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
論文 参考訳(メタデータ) (2025-06-16T13:24:50Z) - A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models [0.9383505015433911]
大規模言語モデル(LLM)は仮説生成の強化と自動化への関心が高まっている。
本稿では,LLMを用いた仮説生成に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-04-07T20:44:33Z) - Enhancing Multi-Hop Fact Verification with Structured Knowledge-Augmented Large Language Models [26.023148371263012]
マルチホップ事実検証のための構造化知識強化LLMベースネットワーク(LLM-SKAN)を提案する。
具体的には、LLM駆動の知識エクストラクタを用いて、エンティティとその複雑な関係を含むきめ細かい情報をキャプチャする。
4つの共通利用データセットに対する実験結果から,本モデルの有効性と優位性を示した。
論文 参考訳(メタデータ) (2025-03-11T14:47:24Z) - Auto-Bench: An Automated Benchmark for Scientific Discovery in LLMs [23.608962459019278]
自然科学と社会科学の両方において科学的発見のための大規模言語モデル(LLM)を評価するための新しいベンチマークを導入する。
我々のベンチマークは因果グラフ発見の原理に基づいており、隠れ構造を発見し、有効な正当性を生成することを含む最適な決定を行うためのモデルに挑戦する。
我々は,GPT-4,Gemini,Qwen,Claude,Llamaを含む最先端のLCMを評価し,問題を複雑化するにつれて性能低下を観測した。
論文 参考訳(メタデータ) (2025-02-21T05:35:20Z) - Generating Computational Cognitive Models using Large Language Models [4.269194018613294]
我々は、GeCCo(Computational Cognitive Models)のガイド生成のためのパイプラインを導入する。
GeCCo は LLM に候補モデルの提案を促し,データ保持に適合させ,予測性能に基づいて反復的に改良する。
このアプローチを4つの異なる認知領域にわたってベンチマークします。
論文 参考訳(メタデータ) (2025-02-02T19:07:13Z) - WisdomBot: Tuning Large Language Models with Artificial Intelligence Knowledge [17.74988145184004]
大規模言語モデル(LLM)は自然言語処理(NLP)の強力なツールとして登場した。
本稿では,LLMの力と教育理論を組み合わせた,WisdomBotという教育用LLMについて述べる。
本稿では,推論中の2つの重要な拡張,すなわち,ローカル知識ベース検索の強化と,推論中の検索エンジン検索の強化を紹介する。
論文 参考訳(メタデータ) (2025-01-22T13:36:46Z) - Improving Scientific Hypothesis Generation with Knowledge Grounded Large Language Models [20.648157071328807]
大規模言語モデル(LLM)は、既存の知識を分析することによって、新しい研究の方向性を特定することができる。
LLMは幻覚を発生させる傾向がある。
我々は,知識グラフから外部構造的知識を統合することで,LLM仮説の生成を促進するシステムKG-CoIを提案する。
論文 参考訳(メタデータ) (2024-11-04T18:50:00Z) - Knowledge Mechanisms in Large Language Models: A Survey and Perspective [88.51320482620679]
本稿では,知識利用と進化を含む新しい分類法から知識メカニズムの解析をレビューする。
LLMが学んだ知識、パラメトリック知識の脆弱性の理由、そして解決が難しい潜在的な暗黒知識(仮説)について論じる。
論文 参考訳(メタデータ) (2024-07-22T06:15:59Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。