論文の概要: Alien Science: Sampling Coherent but Cognitively Unavailable Research Directions from Idea Atoms
- arxiv url: http://arxiv.org/abs/2603.01092v1
- Date: Sun, 01 Mar 2026 13:05:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.505134
- Title: Alien Science: Sampling Coherent but Cognitively Unavailable Research Directions from Idea Atoms
- Title(参考訳): エイリアンの科学 - 理想の原子からコヒーレントだが認知的に不可能な研究方向をサンプリングする
- Authors: Alejandro H. Artiles, Martin Weiss, Levin Brinkmann, Anirudh Goyal, Nasim Rahaman,
- Abstract要約: 大規模な言語モデルは、しばしば、現在のコミュニティにとって一貫性があり、無関心なアイデアを生み出すのに失敗する。
我々は、このギャップを認知的可用性によって形式化し、研究の方向性が典型的な研究者によって自然に提案される可能性について述べる。
我々は、原子の集合が実行可能な方向を構成するかどうかをスコアするコヒーレンスモデルと、その方向が生成される確率をスコアするアベイラビリティモデルという2つの補完モデルを学ぶ。
- 参考スコア(独自算出の注目度): 53.907293349123506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are adept at synthesizing and recombining familiar material, yet they often fail at a specific kind of creativity that matters most in research: producing ideas that are both coherent and non-obvious to the current community. We formalize this gap through cognitive availability, the likelihood that a research direction would be naturally proposed by a typical researcher given what they have worked on. We introduce a pipeline that (i) decomposes papers into granular conceptual units, (ii) clusters recurring units into a shared vocabulary of idea atoms, and (iii) learns two complementary models: a coherence model that scores whether a set of atoms constitutes a viable direction, and an availability model that scores how likely that direction is to be generated by researchers drawn from the community. We then sample "alien" directions that score high on coherence but low on availability. On a corpus of $\sim$7,500 recent LLM papers from NeurIPS, ICLR and ICML, we validate that (a) conceptual units preserve paper content under reconstruction, (b) idea atoms generalize across papers rather than memorizing paper-specific phrasing, and (c) the Alien sampler produces research directions that are more diverse than LLM baselines while maintaining coherence.
- Abstract(参考訳): 大きな言語モデルは、よく知られた素材の合成と再結合に適しているが、しばしば研究で最も重要な特定の種類の創造性に失敗する。
我々は、このギャップを認知的可用性によって形式化し、研究の方向性が、彼らが取り組んでいることを考えると、典型的な研究者によって自然に提案される可能性がある。
私たちはパイプラインを導入します。
一 論文を抽象概念単位に分解すること。
二 繰り返し単位をアイデア原子の共有語彙とするクラスタ、及び
(iii) 原子の集合が実行可能な方向を構成するかどうかをスコアするコヒーレンスモデルと、その方向がコミュニティから引き出された研究者によってどれだけの確率で生成されるかを評価するアベイラビリティモデルという2つの相補的なモデルを学ぶ。
次に、コヒーレンスでは高いが可用性では低い"アリエン"の方向をサンプリングします。
NeurIPS, ICLR, ICML の最近の LLM 論文を$\sim$7,500 のコーパスで検証する。
(a) 概念単位は、復元中の紙の内容を保存する。
b)アイデア原子は、紙固有の言い回しを覚えるよりも、紙にまたがって一般化し、
(c) 異種試料はコヒーレンスを維持しつつ, LLMベースラインよりも多様である研究方向を生成する。
関連論文リスト
- Graph Your Way to Inspiration: Integrating Co-Author Graphs with Retrieval-Augmented Generation for Large Language Model Based Scientific Idea Generation [1.2232326171442904]
本稿では,GYWIと呼ばれる科学的アイデア生成システムを提案する。
著者の知識グラフと検索強化世代(RAG)を組み合わせることで、外部知識基盤を形成する。
生成したアイデアは, 新規性, 実現可能性, 明確性, 妥当性, 重要性の5つの側面から評価される。
論文 参考訳(メタデータ) (2025-12-05T03:38:23Z) - The Ramon Llull's Thinking Machine for Automated Ideation [52.06378166909451]
提案手法は, テーマ, ドメイン, メソッドの3つの構成軸を定義する。
我々は,LLMをキュレートした組み合わせで促進することで,多種多様で関連性があり,現在の文献に根ざした研究思想が生み出されることを示す。
この現代的な思考マシンは、科学的創造性を増強するための軽量で解釈可能なツールを提供し、人間とAIの協調的な概念化への道筋を示唆している。
論文 参考訳(メタデータ) (2025-08-26T17:03:43Z) - Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery [0.0]
大きな言語モデル(LLM)は本当に新しい知識を生成するのか、それとも単に記憶された断片をリミックスするだけなのか?
建設科学的発見のフレーバーとして,非学習的アズ・アブレーションを提案する。
論文 参考訳(メタデータ) (2025-08-25T05:24:15Z) - The Budget AI Researcher and the Power of RAG Chains [4.797627592793464]
研究アイデア生成への現在のアプローチは、しばしばジェネリック・大型言語モデル(LLM)に依存している。
私たちのフレームワークであるThe Budget AI Researcherは、検索強化ジェネレーションチェーン、ベクトルデータベース、トピック誘導ペアリングを使用して、数百の機械学習論文の概念を再結合します。
このシステムは、機械学習の広大なサブフィールドにまたがる9つの主要なAIカンファレンスから論文を取り込み、それらを階層的なトピックツリーに整理する。
論文 参考訳(メタデータ) (2025-06-14T02:40:35Z) - Harnessing Large Language Models for Scientific Novelty Detection [49.10608128661251]
科学的ノベルティ検出(ND)のための大規模言語モデル(LLM)を提案する。
そこで本研究では,LLMからアイデアレベルの知識を抽出し,ライトウェイトなレトリバーを訓練することを提案する。
実験の結果,提案手法は,アイデア検索やNDタスクのためのベンチマークデータセットにおいて,常に他よりも優れていた。
論文 参考訳(メタデータ) (2025-05-30T14:08:13Z) - CHIMERA: A Knowledge Base of Scientific Idea Recombinations for Research Analysis and Ideation [7.086262532457526]
CHIMERAは28K以上の組換え例の大規模な知識ベースである。
ChiMERAは、科学者がどのように概念を再結合し、異なる領域からインスピレーションを引き出すかを実証分析することを可能にする。
我々は2つの応用を通してCHIMERAの実用性を示す。
論文 参考訳(メタデータ) (2025-05-27T06:36:04Z) - Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field [0.0]
本稿では,異なる研究トピック間の意味的関係を識別する大規模モデルの能力について分析する。
我々はそのタスクを評価するためにIEEE Thesaurusに基づく金の標準を開発した。
Mixtral-8x7B、Dolphin-Mistral、Claude 3-7Bなど、いくつかの優れた結果が得られた。
論文 参考訳(メタデータ) (2024-12-11T10:11:41Z) - Chain of Ideas: Revolutionizing Research Via Novel Idea Development with LLM Agents [64.64280477958283]
科学文献の急激な増加は、研究者が最近の進歩と意義ある研究方向を見極めるのを困難にしている。
大規模言語モデル(LLM)の最近の発展は、新しい研究のアイデアを自動生成するための有望な道のりを示唆している。
本研究では, チェーン構造に関連文献を整理し, 研究領域の進展を効果的に反映する, LLMベースのエージェントであるChain-of-Ideas(CoI)エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-17T03:26:37Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。