論文の概要: SCALAR: Quantifying Structural Hallucination, Consistency, and Reasoning Gaps in Materials Foundation Models
- arxiv url: http://arxiv.org/abs/2601.22312v1
- Date: Thu, 29 Jan 2026 20:52:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.058715
- Title: SCALAR: Quantifying Structural Hallucination, Consistency, and Reasoning Gaps in Materials Foundation Models
- Title(参考訳): SCALAR:材料基礎モデルにおける構造的幻覚, 一貫性, 共鳴ギャップの定量化
- Authors: Can Polat, Erchin Serpedin, Mustafa Kurban, Hasan Kurban,
- Abstract要約: 材料基礎モデルにおける幾何スケールの一般化とその構造幻覚, 一貫性, 推論への関連性を評価するためのベンチマークであるSCALARを紹介する。
正準結晶表現が与えられた場合、モデルは超細胞膨張と数原子から18,000原子を超える長さのスケールにわたる幾何学的切り離しによって得られる導出したナノ粒子構造を推論しなければならない。
実験では、明示的な推論の下で大きなモデル依存のシフトを示し、幻覚や誤りを少なくするが、一貫性や妥当性を不安定にすることが多い。
- 参考スコア(独自算出の注目度): 2.3982445219832678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are increasingly applied to materials science reasoning, yet their behavior under physically structured distribution shifts remains poorly understood. We introduce SCALAR (Structural Consistency And Logic Across Regimes), a benchmark for evaluating geometric scale generalization and its connection to structural hallucination, consistency, and reasoning in materials foundation models. Given canonical crystal representations, models must reason about derived nanoparticle structures obtained through supercell expansion and geometric truncation across length scales spanning a few atoms to over 18,000 atoms, totaling $\approx$100,000 structures from DFT-validated unit cells. SCALAR defines three tasks. (i) CIF to property prediction. (ii) A Chain-of-Thought variant with explicit physics-grounded reasoning. (iii) Inverse retrieval identifying crystals from candidates given target properties. Outputs are evaluated via structured metrics capturing numeric error, hallucination, cross-prompt consistency, monotonic reasoning, output validity, and retrieval regret. Experiments across diverse foundation models reveal large, model-dependent shifts under explicit reasoning, often reducing hallucination and error, but frequently destabilizing consistency or validity. These results demonstrate that geometric scale generalization cannot be inferred from accuracy alone. Supplementary materials are available at https://github.com/KurbanIntelligenceLab/SCALAR.
- Abstract(参考訳): 大規模言語モデルは、材料科学の推論にますます応用されているが、物理的に構造化された分布シフトの下でのそれらの振る舞いは、いまだに理解されていない。
SCALAR(Structural Consistency And Logic Across Regimes)は,材料基盤モデルにおける幾何スケールの一般化とその構造幻覚,一貫性,推論との関連性を評価するためのベンチマークである。
正準結晶表現が与えられた場合、モデルでは、超細胞膨張と数原子から18,000原子を超える長さスケールの幾何学的切り離しによって得られる導出したナノ粒子構造を推理する必要がある。
SCALARは3つのタスクを定義します。
(i)特性予測に対するCIF。
(ii) 明示的な物理基底推論を持つチェーン・オブ・サート変種。
三 対象物件の候補から結晶を識別する逆検索
アウトプットは、数値エラー、幻覚、クロスプロンプト一貫性、単調推論、出力妥当性、検索後悔を計測する構造化メトリクスによって評価される。
様々な基礎モデルに対する実験は、明示的な推論の下で大きなモデル依存のシフトを示し、幻覚や誤りを少なくするが、一貫性や妥当性を不安定にすることが多い。
これらの結果は、幾何スケールの一般化は精度だけでは推測できないことを示している。
追加資料はhttps://github.com/KurbanIntelligenceLab/SCALARで入手できる。
関連論文リスト
- Latent Object Permanence: Topological Phase Transitions, Free-Energy Principles, and Renormalization Group Flows in Deep Transformer Manifolds [0.5729426778193398]
幾何学的および統計的物理レンズを用いた深部変圧器言語モデルにおける多段階推論の出現について検討する。
我々は、フォワードパスを離散粗粒度写像として形式化し、安定な「概念盆地」の出現と、この再正規化のような力学の固定点を関連付ける。
結果として生じる低エントロピー状態は、スペクトルテール崩壊と、表現空間における過渡的で再利用可能なオブジェクトのような構造の形成によって特徴づけられる。
論文 参考訳(メタデータ) (2026-01-16T23:11:02Z) - Feature Dynamics as Implicit Data Augmentation: A Depth-Decomposed View on Deep Neural Network Generalization [18.72807692009739]
時間的一貫性は、目に見えないデータや破損したデータにまで拡張されるが、セマンティック構造が破壊されると崩壊する。
これらの知見は、特徴力学と一般化をリンクする概念的な視点を示唆している。
論文 参考訳(メタデータ) (2025-09-24T17:23:56Z) - Learning Identifiable Structures Helps Avoid Bias in DNN-based Supervised Causal Learning [56.22841701016295]
Supervised Causal Learning (SCL)はこの分野で新興パラダイムである。
既存のディープニューラルネットワーク(DNN)ベースの手法では、"Node-Edgeアプローチ"が一般的である。
論文 参考訳(メタデータ) (2025-02-15T19:10:35Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。