論文の概要: Encoding and Understanding Astrophysical Information in Large Language Model-Generated Summaries
- arxiv url: http://arxiv.org/abs/2511.14685v1
- Date: Tue, 18 Nov 2025 17:23:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.231365
- Title: Encoding and Understanding Astrophysical Information in Large Language Model-Generated Summaries
- Title(参考訳): 大規模言語モデル生成サプライヤーにおける天体情報のエンコーディングと理解
- Authors: Kiera McCormick, Rafael Martínez-Galarza,
- Abstract要約: 大規模言語モデルは、ドメイン、モダリティ、さらにはコンテキスト内での学習能力さえも、多くのレベルでうまく一般化できることを示した。
これにより、科学的な測定からのみ利用可能で、テキスト記述にゆるくエンコードされた物理的情報を、どのようにエンコードできるのかという研究上の疑問が解決される。
LLMの埋め込みが、科学的な測定から得られた物理的要約統計を2つの主要な質問によって符号化できるかどうかを検討する: 1) LLMによってそれらの量がどのようにコード化されるか、そして 2) 測定によって表される物理を符号化する上で、言語がもっとも重要であるか?
- 参考スコア(独自算出の注目度): 0.14323566945483496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models have demonstrated the ability to generalize well at many levels across domains, modalities, and even shown in-context learning capabilities. This enables research questions regarding how they can be used to encode physical information that is usually only available from scientific measurements, and loosely encoded in textual descriptions. Using astrophysics as a test bed, we investigate if LLM embeddings can codify physical summary statistics that are obtained from scientific measurements through two main questions: 1) Does prompting play a role on how those quantities are codified by the LLM? and 2) What aspects of language are most important in encoding the physics represented by the measurement? We investigate this using sparse autoencoders that extract interpretable features from the text.
- Abstract(参考訳): 大規模言語モデルは、ドメイン、モダリティ、さらにはコンテキスト内での学習能力さえも、多くのレベルでうまく一般化できることを示した。
これにより、科学的な測定からのみ利用可能で、テキスト記述にゆるくエンコードされた物理的情報を、どのようにエンコードできるのかという研究上の疑問が解決される。
天体物理学をテストベッドとして用いて、LLM埋め込みが科学的な測定から得られた物理的要約統計を2つの主要な質問によって定式化できるかどうかを考察する。
1)その量がどのようにLLMによってコード化されるかは,プロンプトが果たす役割は何か?
そして
2) 測定によって表される物理を符号化する上で,言語学の最も重要な側面は何か。
テキストから解釈可能な特徴を抽出するスパースオートエンコーダを用いてこれを検討する。
関連論文リスト
- Who Gets Cited Most? Benchmarking Long-Context Language Models on Scientific Articles [81.89404347890662]
SciTrekは、科学論文を用いた大規模言語モデル(LLM)の長文推論能力を評価するために設計された、新しい質問応答ベンチマークである。
本分析により,モデルの基本的数値演算を行ない,特定の情報を長い文脈で正確に特定する能力において,系統的な欠点が明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T11:36:09Z) - Uncovering Emergent Physics Representations Learned In-Context by Large Language Models [1.8749305679160366]
大規模言語モデル(LLM)は、テキストプロンプトだけで幅広いタスクを解くことができる、印象的なインコンテキスト学習(ICL)能力を示す。
本稿では LLM の ICL 能力について考察する。
物理系における動的予測タスクをプロキシとして使用し、LLMが文脈で物理を学習できるかどうかを評価する。
論文 参考訳(メタデータ) (2025-08-17T17:49:17Z) - Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - How Large Language Models Encode Context Knowledge? A Layer-Wise Probing
Study [27.23388511249688]
本稿では,知識を符号化する大規模言語モデルのレイヤーワイド能力について検討する。
探索データセットの構築にはChatGPTの強力な生成能力を活用する。
矛盾する知識と新たに獲得した知識の実験は、LLMが上位層でより多くのコンテキスト知識をエンコードすることを好んでいることを示している。
論文 参考訳(メタデータ) (2024-02-25T11:15:42Z) - Do LLMs Dream of Ontologies? [13.776194387957617]
大規模モデル言語(LLM)は、様々な自然言語処理タスクにまたがる顕著な記憶を実証している。
本稿では,LLMが公開リソースから概念識別子(ID)-ラベル関連を正しく再現する範囲について検討する。
論文 参考訳(メタデータ) (2024-01-26T15:10:23Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Adapters for Enhanced Modeling of Multilingual Knowledge and Text [54.02078328453149]
言語モデルは多言語言語モデル(MLLM)に拡張された。
知識グラフは、注意深いキュレーションを必要とし、少数の高リソース言語でのみ利用可能である、明示的な三重形式で事実を含む。
我々は,MLLMを多言語知識グラフ(MLKG)からの知識で拡張し,言語や知識グラフのタスクに多くの言語で取り組むことを提案する。
論文 参考訳(メタデータ) (2022-10-24T21:33:42Z) - Probing Pretrained Language Models for Lexical Semantics [76.73599166020307]
類型的多様言語と5つの異なる語彙課題にまたがる系統的経験分析を行った。
我々の結果は、普遍的に維持されるパターンとベストプラクティスを示しているが、言語やタスクにまたがる顕著なバリエーションを示している。
論文 参考訳(メタデータ) (2020-10-12T14:24:01Z) - Do Language Embeddings Capture Scales? [54.1633257459927]
事前学習された言語モデルは、オブジェクトのスカラーサイズに関するかなりの量の情報を取得することを示す。
我々は,事前学習と数理化における文脈情報を,その性能に影響を及ぼす2つの重要な要因として認識する。
論文 参考訳(メタデータ) (2020-10-11T21:11:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。