論文の概要: Large Language Models: New Opportunities for Access to Science
- arxiv url: http://arxiv.org/abs/2501.07250v1
- Date: Mon, 13 Jan 2025 11:58:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:28:03.158771
- Title: Large Language Models: New Opportunities for Access to Science
- Title(参考訳): 大規模言語モデル:科学へのアクセスのための新しい機会
- Authors: Jutta Schnabel,
- Abstract要約: KM3NeTニュートリノ検出器のオープンサイエンス環境構築における検索型Augmented Generation-enhanced chatアプリケーションの取り込みは、我々の科学に大規模言語モデルが広く適用される可能性を探究するための焦点となる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The adaptation of Large Language Models like ChatGPT for information retrieval from scientific data, software and publications is offering new opportunities to simplify access to and understanding of science for persons from all levels of expertise. They can become tools to both enhance the usability of the open science environment we are building as well as help to provide systematic insight to a long-built corpus of scientific publications. The uptake of Retrieval Augmented Generation-enhanced chat applications in the construction of the open science environment of the KM3NeT neutrino detectors serves as a focus point to explore and exemplify prospects for the wider application of Large Language Models for our science.
- Abstract(参考訳): ChatGPTのような大規模言語モデルの科学データ、ソフトウェア、出版物からの情報検索への適応は、あらゆるレベルの専門知識を持つ人のための科学へのアクセスと理解を簡単にするための新たな機会を提供している。
それらは、私たちが構築しているオープンサイエンス環境のユーザビリティを高めると同時に、長い間構築されてきた科学出版のコーパスに体系的な洞察を提供するためのツールになることができます。
KM3NeTニュートリノ検出器のオープンサイエンス環境構築における検索型Augmented Generation-enhanced chatアプリケーションの取り込みは、我々の科学に大規模言語モデルが広く適用される可能性を探究するための焦点となる。
関連論文リスト
- ByteScience: Bridging Unstructured Scientific Literature and Structured Data with Auto Fine-tuned Large Language Model in Token Granularity [13.978222668670192]
ByteScienceは非営利のクラウドベースの自動車ファインチューニング大型言語モデル(LLM)プラットフォームである。
構造化された科学データを抽出し、巨大な科学コーパスから新しい科学知識を合成するように設計されている。
このプラットフォームは、少量の注釈付き記事で顕著な精度を達成している。
論文 参考訳(メタデータ) (2024-11-18T19:36:26Z) - Knowledge AI: Fine-tuning NLP Models for Facilitating Scientific Knowledge Extraction and Understanding [0.0]
本研究は,Large Language Models (LLMs) の,特定の領域における科学的知識の理解と抽出における有効性について検討する。
トレーニング済みのモデルを採用し、科学領域のデータセットを微調整します。
論文 参考訳(メタデータ) (2024-08-04T01:32:09Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - Understanding Practices around Computational News Discovery Tools in the
Domain of Science Journalism [3.660182910533372]
我々は,これらのジャーナリストのニュース発見を支援する計算手法について,時間効率とエージェンシーの観点から検討する。
我々は、3つの計算情報助成金のプロトタイプを、そのようなツールがいかに有用性を提供するかをよりよく理解するために、プローブとして使用したインタラクティブツールに組み込んだ。
本研究は, 計算ニュース発見ツールに関する社会工学的システムについて, より豊かな視点を提供し, 科学ジャーナリストの実践を支援するために, そうしたツールを改良する方法を提案する。
論文 参考訳(メタデータ) (2023-11-12T14:47:50Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Modeling Information Change in Science Communication with Semantically
Matched Paraphrases [50.67030449927206]
SPICEDは、情報変化の度合いに注釈を付けた科学的な発見の最初のパラフレーズデータセットである。
SPICEDには、ニュース記事、ソーシャルメディアの議論、オリジナル論文の全文から抽出された6000の科学的発見ペアが含まれている。
SPICEDで訓練されたモデルは、実世界の科学的主張の事実チェックのための証拠検索において下流のパフォーマンスを改善する。
論文 参考訳(メタデータ) (2022-10-24T07:44:38Z) - KnowledgeShovel: An AI-in-the-Loop Document Annotation System for
Scientific Knowledge Base Construction [46.56643271476249]
KnowledgeShovelは、研究者が科学的知識基盤を構築するための、Al-in-the-Loop文書アノテーションシステムである。
KnowledgeShovelの設計では、多段階のマルチモーダルAIコラボレーションパイプラインを導入し、データの正確性を向上し、人的負担を軽減する。
7つの地学研究者によるフォローアップユーザ評価では、知識ショベルは、十分な精度で科学的知識ベースを効率的に構築できることを示している。
論文 参考訳(メタデータ) (2022-10-06T11:38:18Z) - Semantic and Relational Spaces in Science of Science: Deep Learning
Models for Article Vectorisation [4.178929174617172]
我々は、自然言語処理(NLP)とグラフニューラルネットワーク(GNN)を用いて、記事の意味的・関係的な側面に基づく文書レベルの埋め込みに焦点を当てる。
論文のセマンティックな空間をNLPでエンコードできるのに対し、GNNでは研究コミュニティの社会的実践をエンコードするリレーショナルな空間を構築することができる。
論文 参考訳(メタデータ) (2020-11-05T14:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。