論文の概要: Learning to Generate Novel Scientific Directions with Contextualized
Literature-based Discovery
- arxiv url: http://arxiv.org/abs/2305.14259v3
- Date: Thu, 12 Oct 2023 16:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 12:26:09.079058
- Title: Learning to Generate Novel Scientific Directions with Contextualized
Literature-based Discovery
- Title(参考訳): 文脈化文学に基づく発見による新しい科学的方向の学習
- Authors: Qingyun Wang, Doug Downey, Heng Ji, Tom Hope
- Abstract要約: 文献に基づく発見は、論文の採掘と仮説の生成によって新しい科学的知識を発見することを目的としている。
本稿では、文脈化-LBDの新たな定式化について述べる: 自然言語で科学的仮説を生成すると同時に、仮説探索空間を制御する文脈でそれらを基礎づける。
我々の評価では、GPT-4は、全体的な技術深度と斬新さでアイデアを生み出す傾向にあり、その一方で、インスピレーションによるアプローチによって、この問題を部分的に緩和する傾向にある。
- 参考スコア(独自算出の注目度): 74.78803157606083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Literature-Based Discovery (LBD) aims to discover new scientific knowledge by
mining papers and generating hypotheses. Standard LBD is limited to predicting
pairwise relations between discrete concepts (e.g., drug-disease links), and
ignores critical contexts like experimental settings (e.g., a specific patient
population where a drug is evaluated) and background motivations (e.g., to find
drugs without specific side effects). We address these limitations with a novel
formulation of contextualized-LBD (C-LBD): generating scientific hypotheses in
natural language, while grounding them in a context that controls the
hypothesis search space. We present a modeling framework using retrieval of
``inspirations'' from past scientific papers. Our evaluations reveal that GPT-4
tends to generate ideas with overall low technical depth and novelty, while our
inspiration prompting approaches partially mitigate this issue. Our work
represents a first step toward building language models that generate new ideas
derived from scientific literature.
- Abstract(参考訳): 文学に基づく発見(LBD)は、論文の採掘と仮説の生成によって新しい科学的知識を発見することを目的としている。
標準LBDは、離散概念(例えば、薬物放出リンク)のペアワイズ関係の予測に限られており、実験的な設定(例えば、薬物が評価される特定の患者集団)や背景動機(例えば、特定の副作用のない薬物を見つけるために)のような重要な文脈を無視する。
これらの制約を文脈化されたLBD (C-LBD) の新たな定式化によって解決し、仮説探索空間を制御するコンテキストに基礎を置いている。
本稿では,過去の学術論文から<inspirations'を検索したモデルフレームワークを提案する。
評価の結果、gpt-4は技術的な奥行きが低く斬新なアイデアを生み出す傾向にあり、私たちのインスピレーションを促すアプローチがこの問題を部分的に緩和していることが明らかとなった。
私たちの研究は、科学文献から新たなアイデアを生み出す言語モデルを構築するための第一歩です。
関連論文リスト
- Self-reflecting Large Language Models: A Hegelian Dialectical Approach [13.910371970437708]
哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMの自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介し, 自己弁証的アプローチを用いて内的批判をエミュレートし, 矛盾点を解消して新たなアイデアを合成する。
我々の実験は、新しいアイデアを生み出すことを約束し、将来の研究の足場を提供する。
論文 参考訳(メタデータ) (2025-01-24T20:54:29Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - A Survey on Natural Language Counterfactual Generation [7.022371235308068]
自然言語のカウンターファクト生成は、修正されたテキストが別のクラスに分類されるように、与えられたテキストを最小限に修正することを目的としている。
生成手法を4つのグループに体系的に分類し、生成品質を評価するための指標を要約する新しい分類法を提案する。
論文 参考訳(メタデータ) (2024-07-04T15:13:59Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Grounded Intuition of GPT-Vision's Abilities with Scientific Images [44.44139684561664]
我々は、GPT-Visionの「接地された直観」を開発するために、多くの人が直感的に試みてきた過程を定式化する。
本稿では,GPT-Visionが特にプロンプトに敏感であることを示す。
我々の手法と分析は、GPT-Visionがいかにして情報にアクセスしやすくできるかを明らかにしながら、研究者が新しいモデルの基盤となる直感を高めるのに役立つことを目的としている。
論文 参考訳(メタデータ) (2023-11-03T17:53:43Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - Exploring and Verbalizing Academic Ideas by Concept Co-occurrence [42.16213986603552]
本研究は,学術的アイデアインスピレーションのための概念共起に基づく枠組みを考案する。
我々は20の分野やトピックから概念の共起関係に基づき、進化する概念グラフを構築する。
我々は、共起励磁法と呼ばれる新しいデータ構造に基づくアイデアの記述を生成する。
論文 参考訳(メタデータ) (2023-06-04T07:01:30Z) - A Survey on Non-Autoregressive Generation for Neural Machine Translation
and Beyond [145.43029264191543]
非自己回帰(NAR)生成は推論を高速化するために機械翻訳(NMT)で最初に提案される。
NAR生成は機械翻訳を著しく加速させるが、自己回帰(AR)生成の推論は翻訳精度を犠牲にする。
NAR生成とAR生成の精度ギャップを埋めるために、多くの新しいモデルとアルゴリズムが設計/提案されている。
論文 参考訳(メタデータ) (2022-04-20T07:25:22Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。