論文の概要: Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery
- arxiv url: http://arxiv.org/abs/2508.17681v1
- Date: Mon, 25 Aug 2025 05:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.647567
- Title: Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery
- Title(参考訳): アブレーションとしてのアンラーニング : 生成科学的発見のためのFalsibility Benchmarkを目指して
- Authors: Robert Yang,
- Abstract要約: 大きな言語モデル(LLM)は本当に新しい知識を生成するのか、それとも単に記憶された断片をリミックスするだけなのか?
建設科学的発見の実証実験として,非学習的アズ・アブレーションを提案する。
数学とアルゴリズムの最小限のパイロットを概説し、物理学、化学、生物学の拡張について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bold claims about AI's role in science-from "AGI will cure all diseases" to promises of radically accelerated discovery-raise a central epistemic question: do large language models (LLMs) truly generate new knowledge, or do they merely remix memorized fragments? We propose unlearning-as-ablation as a falsifiable test of constructive scientific discovery. The method systematically removes a target result and its entire forget-closure (lemmas, paraphrases, and multi-hop entailments) and then evaluates whether the model can re-derive the result from only permitted axioms and tools. Success provides evidence for genuine generative capability; failure exposes current limits. Unlike prevailing motivations for unlearning-privacy, copyright, or safety-our framing repositions it as an epistemic probe for AI-for-Science. We argue that such tests could serve as the next generation of benchmarks, much as ImageNet catalyzed progress in vision: distinguishing models that can merely recall from those that can constructively generate new scientific knowledge. We outline a minimal pilot in mathematics and algorithms, and discuss extensions to physics, chemistry, and biology. Whether models succeed or fail, unlearning-as-ablation provides a principled framework to map the true reach and limits of AI scientific discovery. This is a position paper: we advance a conceptual and methodological argument rather than new empirical results.
- Abstract(参考訳): 大規模な言語モデル(LLM)は本当に新しい知識を生成するのか、あるいは単に記憶された断片をリミックスするのだろうか?
建設科学的発見の実証実験として,非学習的アズ・アブレーションを提案する。
この手法は,対象とする結果とその全体(補題,パラフレーズ,マルチホップを含む)を体系的に除去し,許容された公理やツールのみからモデルが結果を導出できるかどうかを評価する。
成功は、真の生成能力を示す証拠を提供する。
未学習のプライバシ、著作権、安全のためのフレーミングといった一般的なモチベーションとは違って、AIの科学への探究の手段として位置づけられている。
このようなテストは、ImageNetがビジョンの進歩を触媒し、新しい科学的知識を構築的に生成できるモデルと単にリコールできるモデルとを区別するなど、次世代のベンチマークとして機能する可能性がある、と私たちは主張する。
数学とアルゴリズムの最小限のパイロットを概説し、物理学、化学、生物学の拡張について論じる。
モデルが成功するか失敗するかに関わらず、アンラーニング・アズ・アブレーションは、AI科学的発見の真のリーチと限界をマップするための原則化されたフレームワークを提供する。
本稿は,新しい経験的結果ではなく,概念的かつ方法論的な議論を推し進める位置紙である。
関連論文リスト
- Position: Intelligent Science Laboratory Requires the Integration of Cognitive and Embodied AI [98.19195693735487]
知的科学研究所(ISL)のパラダイムを提案する。
ISLは、認知と具体的知性を深く統合した多層クローズドループフレームワークである。
このようなシステムは、現在の科学的発見の限界を克服するために不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-24T13:31:44Z) - Artificial Scientific Discovery [5.241773225218436]
この論文はAlphaGoからChatGPTにまたがって、人工科学者のビジョンを実現するために必要な概念を実証的に検証している。
人工科学者は、その発見を説明するために使われる言語を独自の解釈で理解し、厳格な既存の通訳に依存してはならない。
これは、解釈と知覚が明示的にアンタングル化されているCLIPのようなモデルを構築するという単純なアイデアに終止符を打つ。
論文 参考訳(メタデータ) (2024-11-18T15:51:45Z) - The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery [14.465756130099091]
本稿では,完全自動科学的発見のための最初の包括的枠組みについて述べる。
我々は、新しい研究アイデアを生成し、コードを書き、実験を実行し、結果を視覚化し、その結果を説明するThe AI Scientistを紹介します。
原則として、このプロセスは、人間の科学コミュニティのように行動しながら、オープンな方法でアイデアを反復的に発展させることができる。
論文 参考訳(メタデータ) (2024-08-12T16:58:11Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - I2D2: Inductive Knowledge Distillation with NeuroLogic and
Self-Imitation [89.38161262164586]
本稿では,ジェネリック生成の課題に着目し,コモンセンス知識の生成モデルについて検討する。
我々は,西欧の記号的知識蒸留を緩やかに追従する新しいコモンセンス蒸留フレームワークであるI2D2を紹介する。
我々の研究はジェネリックの新たなコーパス、Gen-A-tomicに繋がる。
論文 参考訳(メタデータ) (2022-12-19T04:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。