論文の概要: Harnessing the Power of Adversarial Prompting and Large Language Models
for Robust Hypothesis Generation in Astronomy
- arxiv url: http://arxiv.org/abs/2306.11648v1
- Date: Tue, 20 Jun 2023 16:16:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 13:36:09.417938
- Title: Harnessing the Power of Adversarial Prompting and Large Language Models
for Robust Hypothesis Generation in Astronomy
- Title(参考訳): 天文学におけるロバスト仮説生成のための逆プロンプティングと大規模言語モデルの力の調和
- Authors: Ioana Ciuc\u{a}, Yuan-Sen Ting, Sandor Kruk, Kartheik Iyer
- Abstract要約: 我々は、NASAの天体物理学データシステムから1000以上の論文を供給し、インコンテキストプロンプトを用いている。
本研究は,文脈内プロンプトを用いた仮説生成の大幅な向上を示唆するものである。
本研究は, GPT-4による知識ベースから重要な詳細を抽出し, 意味のある仮説を導出する能力について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the application of Large Language Models (LLMs),
specifically GPT-4, within Astronomy. We employ in-context prompting, supplying
the model with up to 1000 papers from the NASA Astrophysics Data System, to
explore the extent to which performance can be improved by immersing the model
in domain-specific literature. Our findings point towards a substantial boost
in hypothesis generation when using in-context prompting, a benefit that is
further accentuated by adversarial prompting. We illustrate how adversarial
prompting empowers GPT-4 to extract essential details from a vast knowledge
base to produce meaningful hypotheses, signaling an innovative step towards
employing LLMs for scientific research in Astronomy.
- Abstract(参考訳): 本研究では、天文学における大規模言語モデル(LLM)、特にGPT-4の適用について検討する。
我々は、ドメイン固有の文献にモデルを没入させることで、パフォーマンスを向上できる範囲を探索するために、NASA Astrophysics Data Systemから1000以上の論文をモデルに供給するインコンテキストプロンプトを採用している。
本研究は, 文脈内プロンプトを用いた場合, 仮説生成が著しく向上することが示唆された。
我々は,gpt-4の知識基盤から本質的な詳細を抽出して有意義な仮説を導き,天文学における科学研究にllmを活用するための革新的なステップを示唆する。
関連論文リスト
- pathfinder: A Semantic Framework for Literature Review and Knowledge Discovery in Astronomy [2.6952253149772996]
Pathfinderは天文学における文献のレビューと知識発見を可能にする機械学習フレームワークである。
我々のフレームワークは、LLMベースの合成と高度な検索技術を組み合わせて、意味文脈による天文学文献の検索を行う。
時間に基づく重み付けスキームと引用に基づく重み付けスキームを通じて、jargon、名前付きエンティティ、時間的側面の複雑さに対処する。
論文 参考訳(メタデータ) (2024-08-02T20:05:24Z) - At First Sight: Zero-Shot Classification of Astronomical Images with Large Multimodal Models [0.0]
VLM(Vision-Language Multimodal Models)は、天文学におけるゼロショット分類の可能性を提供する。
低表面輝度銀河と人工物のゼロショット分類のために, GPT-4o と LLaVA-NeXT の2つのモデルについて検討した。
自然言語により、これらのモデルがトレーニングや微調整を伴わずに、かなりの精度(典型的には80%以上)を達成したことが示される。
論文 参考訳(メタデータ) (2024-06-24T18:17:54Z) - SpaRC and SpaRP: Spatial Reasoning Characterization and Path Generation for Understanding Spatial Reasoning Capability of Large Language Models [70.01883340129204]
空間推論は 生物学的と人工知能の両方において 重要な要素です
本稿では,現在最先端の大規模言語モデル (LLM) の空間的推論能力について包括的に検討する。
論文 参考訳(メタデータ) (2024-06-07T01:06:34Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - Simple Techniques for Enhancing Sentence Embeddings in Generative Language Models [3.0566617373924325]
文の埋め込みは自然言語処理の領域における基本的なタスクであり、検索エンジン、エキスパートシステム、質問・回答プラットフォームで広範囲に応用されている。
LLaMAやMistralのような大規模言語モデルの継続的な進化により、文の埋め込みに関する研究は近年顕著なブレークスルーを達成している。
PLMの生埋め込みの表現力をさらに向上する2つの革新的急進的技術技術を提案する。
論文 参考訳(メタデータ) (2024-04-05T07:07:15Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - The Impact of Large Language Models on Scientific Discovery: a
Preliminary Study using GPT-4 [0.0]
本報告では,最先端の言語モデルであるGPT-4について述べる。
我々は, GPT-4の知識基盤, 科学的理解, 科学的数値計算能力, 様々な科学的予測能力を評価する。
論文 参考訳(メタデータ) (2023-11-13T14:26:12Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Galactic ChitChat: Using Large Language Models to Converse with
Astronomy Literature [0.0]
我々は,現在最先端のOpenAI GPT-4大言語モデルが天文学論文との有意義な相互作用に関与する可能性を実証する。
我々は, 原紙のサイズを50%削減する蒸留技術を採用している。
次に、マルチドキュメントコンテキストを用いてモデルの応答を探索する。
論文 参考訳(メタデータ) (2023-04-12T03:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。