論文の概要: Spacer: Towards Engineered Scientific Inspiration
- arxiv url: http://arxiv.org/abs/2508.17661v1
- Date: Mon, 25 Aug 2025 04:49:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.635366
- Title: Spacer: Towards Engineered Scientific Inspiration
- Title(参考訳): Spacer: エンジニアによる科学的な吸気を目指して
- Authors: Minhyeong Lee, Suyoung Hwang, Seunghyun Moon, Geonho Nah, Donghyun Koh, Youngjun Cho, Johyun Park, Hojin Yoo, Jiho Park, Haneul Choi, Sungbin Moon, Taehoon Hwang, Seungwon Kim, Jaeyeong Kim, Seongjun Kim, Juneau Jung,
- Abstract要約: 外部の介入なしに創造的な概念を発達させる科学的な発見システムであるスペーサーを提案する。
Spacerは(i)キーワードセットを構築するインスピレーションエンジンであるNuriと(ii)これらのセットを精巧な科学的ステートメントに洗練するManifesting Pipelineで構成されている。
- 参考スコア(独自算出の注目度): 5.926432566831157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in LLMs have made automated scientific research the next frontline in the path to artificial superintelligence. However, these systems are bound either to tasks of narrow scope or the limited creative capabilities of LLMs. We propose Spacer, a scientific discovery system that develops creative and factually grounded concepts without external intervention. Spacer attempts to achieve this via 'deliberate decontextualization,' an approach that disassembles information into atomic units - keywords - and draws creativity from unexplored connections between them. Spacer consists of (i) Nuri, an inspiration engine that builds keyword sets, and (ii) the Manifesting Pipeline that refines these sets into elaborate scientific statements. Nuri extracts novel, high-potential keyword sets from a keyword graph built with 180,000 academic publications in biological fields. The Manifesting Pipeline finds links between keywords, analyzes their logical structure, validates their plausibility, and ultimately drafts original scientific concepts. According to our experiments, the evaluation metric of Nuri accurately classifies high-impact publications with an AUROC score of 0.737. Our Manifesting Pipeline also successfully reconstructs core concepts from the latest top-journal articles solely from their keyword sets. An LLM-based scoring system estimates that this reconstruction was sound for over 85% of the cases. Finally, our embedding space analysis shows that outputs from Spacer are significantly more similar to leading publications compared with those from SOTA LLMs.
- Abstract(参考訳): LLMの最近の進歩は、人工超知能への道の次の前線として、科学研究を自動化している。
しかし、これらのシステムは狭い範囲のタスクか、LLMの限られた創造能力に縛られている。
本研究では,創造的で現実的な概念を外部の介入なしに開発する科学的な発見システムであるSpacerを提案する。
Spacerは、情報を原子単位(キーワード)に分解し、探索されていない接続から創造性を引き出すアプローチである"Deliberate Decontextualization"を通じてこれを達成しようと試みている。
スペーサーは
(i)キーワードセットを構築するインスピレーションエンジンのNuri
(II)これらのセットを精巧な科学的ステートメントに洗練するマニフェストングパイプライン。
ヌリは、生物学的分野における180,000の学術出版物で構築されたキーワードグラフから、新しくて強力なキーワードセットを抽出する。
Manifesting Pipelineはキーワード間のリンクを見つけ、その論理構造を分析し、その妥当性を検証し、最終的に元の科学的概念をドラフトする。
実験の結果,Nuriの評価基準はAUROCスコア0.737の高インパクト出版物を正確に分類した。
私たちのManifesting Pipelineは、キーワードセットのみから最新のトップジャーナル記事からコアコンセプトを再構築することに成功した。
LLMに基づくスコアリングシステムでは、この再建は85%以上のケースに対して健全であると見積もられている。
最後に, 組込み空間解析により, スペーサーの出力はSOTA LLMの出力に比べて, 先行する出版物と著しく類似していることが示された。
関連論文リスト
- Open-ended Scientific Discovery via Bayesian Surprise [63.26412847240136]
AutoDSは、ベイジアン・サプライズを用いた科学探査を駆動する、オープンエンドの科学的発見の方法である。
我々はAutoDSを、生物学、経済学、金融学、行動科学といった21の領域にまたがる実世界のデータセットにまたがるデータ駆動ディスカバリの設定で評価する。
論文 参考訳(メタデータ) (2025-06-30T22:53:59Z) - Context-Aware Scientific Knowledge Extraction on Linked Open Data using Large Language Models [0.0]
本稿では,クエリ固有の知識を抽出し,洗練し,ランク付けするシステムであるWISE(Workflow for Intelligent Scientific Knowledge extract)を紹介する。
WISEは、様々な情報源から知識を体系的に探求し、合成することによって、詳細な、組織化された回答を提供する。
論文 参考訳(メタデータ) (2025-06-21T04:22:34Z) - Harnessing Large Language Models for Scientific Novelty Detection [49.10608128661251]
科学的ノベルティ検出(ND)のための大規模言語モデル(LLM)を提案する。
そこで本研究では,LLMからアイデアレベルの知識を抽出し,ライトウェイトなレトリバーを訓練することを提案する。
実験の結果,提案手法は,アイデア検索やNDタスクのためのベンチマークデータセットにおいて,常に他よりも優れていた。
論文 参考訳(メタデータ) (2025-05-30T14:08:13Z) - CHIMERA: A Knowledge Base of Scientific Idea Recombinations for Research Analysis and Ideation [7.086262532457526]
CHIMERAは28K以上の組換え例の大規模な知識ベースである。
ChiMERAは、科学者がどのように概念を再結合し、異なる領域からインスピレーションを引き出すかを実証分析することを可能にする。
我々は2つの応用を通してCHIMERAの実用性を示す。
論文 参考訳(メタデータ) (2025-05-27T06:36:04Z) - Science Hierarchography: Hierarchical Organization of Science Literature [20.182213614072836]
我々は、科学文献を高品質な階層構造に整理する目的であるSCIENCE HIERARCHOGRAPHYを動機付けている。
我々は、効率的な埋め込みベースのクラスタリングとLLMベースのプロンプトを組み合わせたハイブリッドアプローチを開発した。
その結果,本手法は解釈可能性を改善し,科学的文献を探索するための代替経路を提供することがわかった。
論文 参考訳(メタデータ) (2025-04-18T17:59:29Z) - ResearchBench: Benchmarking LLMs in Scientific Discovery via Inspiration-Based Task Decomposition [67.26124739345332]
大規模言語モデル(LLM)は科学的研究を支援する可能性を示しているが、高品質な研究仮説を発見する能力はいまだ検討されていない。
我々は,LLMを科学的発見のサブタスクのほぼ十分セットで評価するための,最初の大規模ベンチマークを紹介する。
学術論文から重要コンポーネント(研究質問、背景調査、インスピレーション、仮説)を抽出する自動フレームワークを開発する。
論文 参考訳(メタデータ) (2025-03-27T08:09:15Z) - What's In Your Field? Mapping Scientific Research with Knowledge Graphs and Large Language Models [4.8261605642238745]
大規模言語モデル(LLM)は、大きな仕事の全体にわたる詳細な関係を捉えることができない。
構造化された表現は、自然に補完する -- コーパス全体にわたって体系的な分析を可能にする。
文献全体に関する正確な質問に答えるシステムを試作する。
論文 参考訳(メタデータ) (2025-03-12T23:24:40Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。