論文の概要: Spacer: Towards Engineered Scientific Inspiration
- arxiv url: http://arxiv.org/abs/2508.17661v1
- Date: Mon, 25 Aug 2025 04:49:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.635366
- Title: Spacer: Towards Engineered Scientific Inspiration
- Title(参考訳): Spacer: エンジニアによる科学的な吸気を目指して
- Authors: Minhyeong Lee, Suyoung Hwang, Seunghyun Moon, Geonho Nah, Donghyun Koh, Youngjun Cho, Johyun Park, Hojin Yoo, Jiho Park, Haneul Choi, Sungbin Moon, Taehoon Hwang, Seungwon Kim, Jaeyeong Kim, Seongjun Kim, Juneau Jung,
- Abstract要約: 外部の介入なしに創造的な概念を発達させる科学的な発見システムであるスペーサーを提案する。
Spacerは(i)キーワードセットを構築するインスピレーションエンジンであるNuriと(ii)これらのセットを精巧な科学的ステートメントに洗練するManifesting Pipelineで構成されている。
- 参考スコア(独自算出の注目度): 5.926432566831157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in LLMs have made automated scientific research the next frontline in the path to artificial superintelligence. However, these systems are bound either to tasks of narrow scope or the limited creative capabilities of LLMs. We propose Spacer, a scientific discovery system that develops creative and factually grounded concepts without external intervention. Spacer attempts to achieve this via 'deliberate decontextualization,' an approach that disassembles information into atomic units - keywords - and draws creativity from unexplored connections between them. Spacer consists of (i) Nuri, an inspiration engine that builds keyword sets, and (ii) the Manifesting Pipeline that refines these sets into elaborate scientific statements. Nuri extracts novel, high-potential keyword sets from a keyword graph built with 180,000 academic publications in biological fields. The Manifesting Pipeline finds links between keywords, analyzes their logical structure, validates their plausibility, and ultimately drafts original scientific concepts. According to our experiments, the evaluation metric of Nuri accurately classifies high-impact publications with an AUROC score of 0.737. Our Manifesting Pipeline also successfully reconstructs core concepts from the latest top-journal articles solely from their keyword sets. An LLM-based scoring system estimates that this reconstruction was sound for over 85% of the cases. Finally, our embedding space analysis shows that outputs from Spacer are significantly more similar to leading publications compared with those from SOTA LLMs.
- Abstract(参考訳): LLMの最近の進歩は、人工超知能への道の次の前線として、科学研究を自動化している。
しかし、これらのシステムは狭い範囲のタスクか、LLMの限られた創造能力に縛られている。
本研究では,創造的で現実的な概念を外部の介入なしに開発する科学的な発見システムであるSpacerを提案する。
Spacerは、情報を原子単位(キーワード)に分解し、探索されていない接続から創造性を引き出すアプローチである"Deliberate Decontextualization"を通じてこれを達成しようと試みている。
スペーサーは
(i)キーワードセットを構築するインスピレーションエンジンのNuri
(II)これらのセットを精巧な科学的ステートメントに洗練するマニフェストングパイプライン。
ヌリは、生物学的分野における180,000の学術出版物で構築されたキーワードグラフから、新しくて強力なキーワードセットを抽出する。
Manifesting Pipelineはキーワード間のリンクを見つけ、その論理構造を分析し、その妥当性を検証し、最終的に元の科学的概念をドラフトする。
実験の結果,Nuriの評価基準はAUROCスコア0.737の高インパクト出版物を正確に分類した。
私たちのManifesting Pipelineは、キーワードセットのみから最新のトップジャーナル記事からコアコンセプトを再構築することに成功した。
LLMに基づくスコアリングシステムでは、この再建は85%以上のケースに対して健全であると見積もられている。
最後に, 組込み空間解析により, スペーサーの出力はSOTA LLMの出力に比べて, 先行する出版物と著しく類似していることが示された。
関連論文リスト
- Alien Science: Sampling Coherent but Cognitively Unavailable Research Directions from Idea Atoms [53.907293349123506]
大規模な言語モデルは、しばしば、現在のコミュニティにとって一貫性があり、無関心なアイデアを生み出すのに失敗する。
我々は、このギャップを認知的可用性によって形式化し、研究の方向性が典型的な研究者によって自然に提案される可能性について述べる。
我々は、原子の集合が実行可能な方向を構成するかどうかをスコアするコヒーレンスモデルと、その方向が生成される確率をスコアするアベイラビリティモデルという2つの補完モデルを学ぶ。
論文 参考訳(メタデータ) (2026-03-01T13:05:19Z) - DeepInnovator: Triggering the Innovative Capabilities of LLMs [41.60038455664918]
DeepInnovatorは、大規模言語モデル(LLM)の革新的な機能を引き出すために設計されたトレーニングフレームワークである。
我々は、未ラベルの学術文献の膨大なコーパスから構造化された研究知識を抽出するために、自動データ抽出パイプラインを構築した。
本稿では,研究アイデアを連続的に予測し,評価し,改良する反復的なプロセスとして,研究アイデアの生成をモデル化する,次世代のアイデア予測のトレーニングパラダイムを紹介する。
論文 参考訳(メタデータ) (2026-02-21T18:07:18Z) - ARCHE: A Novel Task to Evaluate LLMs on Latent Reasoning Chain Extraction [70.53044880892196]
本稿では、複雑な推論引数を標準推論パラダイムの組み合わせに分解し、Reasoning Logic Tree (RLT) という形で分解しなければならない、ARCHE(Latent Reasoning Chain extract)という新しいタスクを紹介する。
この作業を容易にするために,我々は,1,900以上の参照と38,000の視点を含む70のNature Communicationsの記事から得られた新しいベンチマークであるARCHE Benchをリリースする。
ARCHE Bench上での10のLLMの評価では、モデルがREAとECのトレードオフを示しており、完全な標準推論チェーンを抽出することはできません。
論文 参考訳(メタデータ) (2025-11-16T07:37:09Z) - Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base [42.96788956767613]
ほとんどの科学資料は推論を圧縮し、それらを正当化する導出鎖を省略しながら結論を提示する。
この圧縮は、明示的で段階的な正当化を欠いて検証を妨げ、クロスドメインリンクを阻害する。
本稿では,LCoT(Long Chain-of-Thought)知識ベースを構築し,科学的推論を非圧縮化するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-30T15:38:50Z) - The Ramon Llull's Thinking Machine for Automated Ideation [52.06378166909451]
提案手法は, テーマ, ドメイン, メソッドの3つの構成軸を定義する。
我々は,LLMをキュレートした組み合わせで促進することで,多種多様で関連性があり,現在の文献に根ざした研究思想が生み出されることを示す。
この現代的な思考マシンは、科学的創造性を増強するための軽量で解釈可能なツールを提供し、人間とAIの協調的な概念化への道筋を示唆している。
論文 参考訳(メタデータ) (2025-08-26T17:03:43Z) - Open-ended Scientific Discovery via Bayesian Surprise [63.26412847240136]
AutoDSは、ベイジアン・サプライズを用いた科学探査を駆動する、オープンエンドの科学的発見の方法である。
我々はAutoDSを、生物学、経済学、金融学、行動科学といった21の領域にまたがる実世界のデータセットにまたがるデータ駆動ディスカバリの設定で評価する。
論文 参考訳(メタデータ) (2025-06-30T22:53:59Z) - Context-Aware Scientific Knowledge Extraction on Linked Open Data using Large Language Models [0.0]
本稿では,クエリ固有の知識を抽出し,洗練し,ランク付けするシステムであるWISE(Workflow for Intelligent Scientific Knowledge extract)を紹介する。
WISEは、様々な情報源から知識を体系的に探求し、合成することによって、詳細な、組織化された回答を提供する。
論文 参考訳(メタデータ) (2025-06-21T04:22:34Z) - Harnessing Large Language Models for Scientific Novelty Detection [49.10608128661251]
科学的ノベルティ検出(ND)のための大規模言語モデル(LLM)を提案する。
そこで本研究では,LLMからアイデアレベルの知識を抽出し,ライトウェイトなレトリバーを訓練することを提案する。
実験の結果,提案手法は,アイデア検索やNDタスクのためのベンチマークデータセットにおいて,常に他よりも優れていた。
論文 参考訳(メタデータ) (2025-05-30T14:08:13Z) - CHIMERA: A Knowledge Base of Scientific Idea Recombinations for Research Analysis and Ideation [7.086262532457526]
CHIMERAは28K以上の組換え例の大規模な知識ベースである。
ChiMERAは、科学者がどのように概念を再結合し、異なる領域からインスピレーションを引き出すかを実証分析することを可能にする。
我々は2つの応用を通してCHIMERAの実用性を示す。
論文 参考訳(メタデータ) (2025-05-27T06:36:04Z) - Science Hierarchography: Hierarchical Organization of Science Literature [20.182213614072836]
我々は、科学文献を高品質な階層構造に整理する目的であるSCIENCE HIERARCHOGRAPHYを動機付けている。
我々は、効率的な埋め込みベースのクラスタリングとLLMベースのプロンプトを組み合わせたハイブリッドアプローチを開発した。
その結果,本手法は解釈可能性を改善し,科学的文献を探索するための代替経路を提供することがわかった。
論文 参考訳(メタデータ) (2025-04-18T17:59:29Z) - ResearchBench: Benchmarking LLMs in Scientific Discovery via Inspiration-Based Task Decomposition [67.26124739345332]
大規模言語モデル(LLM)は科学的研究を支援する可能性を示しているが、高品質な研究仮説を発見する能力はいまだ検討されていない。
我々は,LLMを科学的発見のサブタスクのほぼ十分セットで評価するための,最初の大規模ベンチマークを紹介する。
学術論文から重要コンポーネント(研究質問、背景調査、インスピレーション、仮説)を抽出する自動フレームワークを開発する。
論文 参考訳(メタデータ) (2025-03-27T08:09:15Z) - What's In Your Field? Mapping Scientific Research with Knowledge Graphs and Large Language Models [4.8261605642238745]
大規模言語モデル(LLM)は、大きな仕事の全体にわたる詳細な関係を捉えることができない。
構造化された表現は、自然に補完する -- コーパス全体にわたって体系的な分析を可能にする。
文献全体に関する正確な質問に答えるシステムを試作する。
論文 参考訳(メタデータ) (2025-03-12T23:24:40Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。