論文の概要: Sparks of Science: Hypothesis Generation Using Structured Paper Data
- arxiv url: http://arxiv.org/abs/2504.12976v1
- Date: Thu, 17 Apr 2025 14:29:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:37:13.913471
- Title: Sparks of Science: Hypothesis Generation Using Structured Paper Data
- Title(参考訳): 科学の火花:構造化紙データを用いた仮説生成
- Authors: Charles O'Neill, Tirthankar Ghosal, Roberta Răileanu, Mike Walmsley, Thang Bui, Kevin Schawinski, Ioana Ciucă,
- Abstract要約: 我々は,最上位のコンピュータサイエンスカンファレンスから抽出された約5500の構造化問題と仮説のペアの最初のデータセットであるHypoGenを紹介する。
我々は,Bit-Flip-SparkとChain-of-Reasoningをモデルとして,フレーミング仮説の生成を条件付き言語モデリングとして示す。
得られた仮説の新規性、実現可能性、および全体的な品質を改善するために、私たちのHypoGenデータセットを微調整することで、その妥当性が向上することを示す。
- 参考スコア(独自算出の注目度): 1.250723303641055
- License:
- Abstract: Generating novel and creative scientific hypotheses is a cornerstone in achieving Artificial General Intelligence. Large language and reasoning models have the potential to aid in the systematic creation, selection, and validation of scientifically informed hypotheses. However, current foundation models often struggle to produce scientific ideas that are both novel and feasible. One reason is the lack of a dedicated dataset that frames Scientific Hypothesis Generation (SHG) as a Natural Language Generation (NLG) task. In this paper, we introduce HypoGen, the first dataset of approximately 5500 structured problem-hypothesis pairs extracted from top-tier computer science conferences structured with a Bit-Flip-Spark schema, where the Bit is the conventional assumption, the Spark is the key insight or conceptual leap, and the Flip is the resulting counterproposal. HypoGen uniquely integrates an explicit Chain-of-Reasoning component that reflects the intellectual process from Bit to Flip. We demonstrate that framing hypothesis generation as conditional language modelling, with the model fine-tuned on Bit-Flip-Spark and the Chain-of-Reasoning (and where, at inference, we only provide the Bit), leads to improvements in the overall quality of the hypotheses. Our evaluation employs automated metrics and LLM judge rankings for overall quality assessment. We show that by fine-tuning on our HypoGen dataset we improve the novelty, feasibility, and overall quality of the generated hypotheses. The HypoGen dataset is publicly available at huggingface.co/datasets/UniverseTBD/hypogen-dr1.
- Abstract(参考訳): 斬新で創造的な科学的仮説を生成することは、人工知能を達成するための基礎となる。
大きな言語と推論モデルは、科学的に情報を得た仮説の体系的な作成、選択、検証に役立つ可能性がある。
しかし、現在の基礎モデルは、しばしば、斬新で実現可能な科学的なアイデアを生み出すのに苦労する。
1つの理由は、科学仮説生成(SHG)を自然言語生成(NLG)タスクとしてフレーム化する専用のデータセットがないことである。
本稿では,Bit-Flip-Sparkスキーマで構成された上位階層のコンピュータ科学会議から抽出された,約5500の構造化問題と仮説のペアの最初のデータセットであるHypoGenを紹介する。
hypoGenは、BitからFlipまでの知的プロセスを反映した明示的なChain-of-Reasoningコンポーネントを独自に統合する。
本稿では,Bit-Flip-SparkとChain-of-Reasoningをモデルとした条件付き言語モデルとしてのフレーミング仮説の生成について述べる。
本評価では,総合的な品質評価のために,自動測定値とLCM判定値を用いる。
得られた仮説の新規性、実現可能性、および全体的な品質を改善するために、私たちのHypoGenデータセットを微調整することで、その妥当性が向上することを示す。
hypoGenデータセットはuggingface.co/datasets/UniverseTBD/hypogen-dr1で公開されている。
関連論文リスト
- Hypothesizing Missing Causal Variables with LLMs [55.28678224020973]
我々は、入力が欠落変数を持つ部分因果グラフであるような新しいタスクを定式化し、出力は部分グラフを完成させるための欠落変数に関する仮説である。
原因と効果の間の媒介変数を仮説化するLLMの強い能力を示す。
また,オープンソースモデルの一部がGPT-4モデルより優れているという驚くべき結果も得られた。
論文 参考訳(メタデータ) (2024-09-04T10:37:44Z) - Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - SPIN: SE(3)-Invariant Physics Informed Network for Binding Affinity Prediction [3.406882192023597]
タンパク質-リガンド結合親和性の正確な予測は、薬物開発に不可欠である。
伝統的な手法は、しばしば複合体の空間情報を正確にモデル化するのに失敗する。
この課題に適用可能な様々な帰納バイアスを組み込んだモデルSPINを提案する。
論文 参考訳(メタデータ) (2024-07-10T08:40:07Z) - Hypothesis Generation with Large Language Models [28.73562677221476]
データに基づく仮説生成(ラベル付き例)に焦点を当てる。
マルチアームの盗賊にインスパイアされた我々は、更新プロセスにおけるエクスプロイト探索のトレードオフを通知する報酬関数を設計する。
我々のアルゴリズムは、分類タスクにおいて、数発のプロンプトよりもずっと優れた予測性能を実現する仮説を生成することができる。
論文 参考訳(メタデータ) (2024-04-05T18:00:07Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - Learning to Reason for Text Generation from Scientific Tables [100.61286775597947]
SciGenは、テキスト間のデータ生成を推論するタスクのための新しいチャレンジデータセットです。
科学的なテーブルの記述は表の内容の表面的な実現を越えて、テーブルの価値上の推論を要求します。
本研究は,scigenにおける最先端データ対テキスト生成モデルの有効性について検討し,共通指標と人的評価を用いて結果を評価する。
論文 参考訳(メタデータ) (2021-04-16T18:01:36Z) - Exploring Lexical Irregularities in Hypothesis-Only Models of Natural
Language Inference [5.283529004179579]
自然言語推論(NLI)またはテキスト関連認識(RTE)は、文のペア間の関係を予測するタスクです。
包含を理解するモデルは前提と仮説の両方をエンコードするべきである。
Poliakらによる実験。
仮説でのみ観察されたパターンに対するこれらのモデルの強い好みを明らかにした。
論文 参考訳(メタデータ) (2021-01-19T01:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。