論文の概要: Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery
- arxiv url: http://arxiv.org/abs/2508.17681v2
- Date: Tue, 26 Aug 2025 05:04:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 13:17:04.078761
- Title: Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery
- Title(参考訳): アブレーションとしてのアンラーニング : 生成科学的発見のためのFalsibility Benchmarkを目指して
- Authors: Robert Yang,
- Abstract要約: 大きな言語モデル(LLM)は本当に新しい知識を生成するのか、それとも単に記憶された断片をリミックスするだけなのか?
建設科学的発見のフレーバーとして,非学習的アズ・アブレーションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bold claims about AI's role in science-from "AGI will cure all diseases" to promises of radically accelerated discovery-raise a central epistemic question: do large language models (LLMs) truly generate new knowledge, or do they merely remix memorized fragments? We propose unlearning-as-ablation as a falsifiable probe of constructive scientific discovery. The idea is to systematically remove a target result together with its forget-closure (supporting lemmas, paraphrases, and multi-hop entailments) and then evaluate whether the model can re-derive the result from only permitted axioms and tools. Success would indicate generative capability beyond recall; failure would expose current limits. Unlike prevailing motivations for unlearning-privacy, copyright, or safety-our framing repositions it as an epistemic probe for AI-for-Science. We outline a minimal pilot in mathematics and algorithms to illustrate feasibility, and sketch how the same approach could later be extended to domains such as physics or chemistry. This is a position paper: our contribution is conceptual and methodological, not empirical. We aim to stimulate discussion on how principled ablation tests could help distinguish models that reconstruct knowledge from those that merely retrieve it, and how such probes might guide the next generation of AI-for-Science benchmarks.
- Abstract(参考訳): 大規模な言語モデル(LLM)は本当に新しい知識を生成するのか、あるいは単に記憶された断片をリミックスするのだろうか?
建設科学的発見のフレーバーとして,非学習的アズ・アブレーションを提案する。
その考え方は、目標とする結果と、その忘れられたクロージャ(補題、パラフレーズ、マルチホップを含む)を体系的に取り除き、モデルが許容される公理とツールのみから結果を導出できるかどうかを評価することである。
成功はリコール以上の生成能力を示し、障害は現在の限界を露呈する。
未学習のプライバシ、著作権、安全のためのフレーミングといった一般的なモチベーションとは違って、AIの科学への探究の手段として位置づけられている。
我々は、実現可能性を説明するために、数学とアルゴリズムの最小限のパイロットを概説し、同じアプローチが後に物理学や化学のような領域に拡張される可能性についてスケッチした。
私たちの貢献は概念的で方法論的であり、経験的ではありません。
我々は、原理的アブレーションテストが、知識を単に取得するモデルと、それを再構築するモデルとを区別する上でどのように役立つか、そしてそのようなプローブが、次世代のAI科学ベンチマークをどのように導くか、という議論を刺激することを目指している。
関連論文リスト
- Position: Intelligent Science Laboratory Requires the Integration of Cognitive and Embodied AI [98.19195693735487]
知的科学研究所(ISL)のパラダイムを提案する。
ISLは、認知と具体的知性を深く統合した多層クローズドループフレームワークである。
このようなシステムは、現在の科学的発見の限界を克服するために不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-24T13:31:44Z) - Artificial Scientific Discovery [5.241773225218436]
この論文はAlphaGoからChatGPTにまたがって、人工科学者のビジョンを実現するために必要な概念を実証的に検証している。
人工科学者は、その発見を説明するために使われる言語を独自の解釈で理解し、厳格な既存の通訳に依存してはならない。
これは、解釈と知覚が明示的にアンタングル化されているCLIPのようなモデルを構築するという単純なアイデアに終止符を打つ。
論文 参考訳(メタデータ) (2024-11-18T15:51:45Z) - The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery [14.465756130099091]
本稿では,完全自動科学的発見のための最初の包括的枠組みについて述べる。
我々は、新しい研究アイデアを生成し、コードを書き、実験を実行し、結果を視覚化し、その結果を説明するThe AI Scientistを紹介します。
原則として、このプロセスは、人間の科学コミュニティのように行動しながら、オープンな方法でアイデアを反復的に発展させることができる。
論文 参考訳(メタデータ) (2024-08-12T16:58:11Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - I2D2: Inductive Knowledge Distillation with NeuroLogic and
Self-Imitation [89.38161262164586]
本稿では,ジェネリック生成の課題に着目し,コモンセンス知識の生成モデルについて検討する。
我々は,西欧の記号的知識蒸留を緩やかに追従する新しいコモンセンス蒸留フレームワークであるI2D2を紹介する。
我々の研究はジェネリックの新たなコーパス、Gen-A-tomicに繋がる。
論文 参考訳(メタデータ) (2022-12-19T04:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。