論文の概要: Diverse Explanations From Data-Driven and Domain-Driven Perspectives in the Physical Sciences
- arxiv url: http://arxiv.org/abs/2402.00347v2
- Date: Thu, 31 Oct 2024 23:37:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-04 21:01:09.600500
- Title: Diverse Explanations From Data-Driven and Domain-Driven Perspectives in the Physical Sciences
- Title(参考訳): 物理科学におけるデータ駆動とドメイン駆動の観点からの多元的説明
- Authors: Sichao Li, Xin Wang, Amanda Barnard,
- Abstract要約: このパースペクティブは、物理科学における機械学習応用における多様な説明の源泉と意味を探求する。
モデル, 説明方法, 特徴属性レベル, 利害関係者のニーズが, ML出力の様々な解釈をもたらすかを検討する。
我々の分析は、科学的な文脈でMLモデルを解釈する際に、複数の視点を考慮することの重要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 4.442043151145212
- License:
- Abstract: Machine learning methods have been remarkably successful in material science, providing novel scientific insights, guiding future laboratory experiments, and accelerating materials discovery. Despite the promising performance of these models, understanding the decisions they make is also essential to ensure the scientific value of their outcomes. However, there is a recent and ongoing debate about the diversity of explanations, which potentially leads to scientific inconsistency. This Perspective explores the sources and implications of these diverse explanations in ML applications for physical sciences. Through three case studies in materials science and molecular property prediction, we examine how different models, explanation methods, levels of feature attribution, and stakeholder needs can result in varying interpretations of ML outputs. Our analysis underscores the importance of considering multiple perspectives when interpreting ML models in scientific contexts and highlights the critical need for scientists to maintain control over the interpretation process, balancing data-driven insights with domain expertise to meet specific scientific needs. By fostering a comprehensive understanding of these inconsistencies, we aim to contribute to the responsible integration of eXplainable Artificial Intelligence (XAI) into physical sciences and improve the trustworthiness of ML applications in scientific discovery.
- Abstract(参考訳): 機械学習の手法は、物質科学において顕著に成功し、新しい科学的洞察を提供し、将来の実験実験を指導し、材料発見を加速している。
これらのモデルの有望な性能にもかかわらず、彼らが下した決定を理解することは、結果の科学的価値を保証するためにも不可欠である。
しかし、近年、説明の多様性に関する議論が進行中であり、科学的な矛盾につながる可能性がある。
このパースペクティブは、物理科学におけるML応用におけるこれらの多様な説明の源泉と意味を探求する。
材料科学と分子特性予測の3つのケーススタディを通じて、異なるモデル、説明方法、特徴属性のレベル、ステークホルダーのニーズがML出力の様々な解釈をもたらすかを検討する。
我々の分析は、科学的な文脈でMLモデルを解釈する際に、複数の視点を考慮することの重要性を強調し、解釈プロセスの制御を維持するために科学者が重要な必要性を強調し、特定の科学的ニーズを満たすために、データ駆動の洞察とドメインの専門知識のバランスをとる。
これらの矛盾を包括的に理解することで,eXplainable Artificial Intelligence(XAI)を物理科学に統合し,科学的発見におけるMLアプリケーションの信頼性を向上させることを目指す。
関連論文リスト
- Probing the limitations of multimodal language models for chemistry and materials research [3.422786943576035]
実世界の化学や材料科学のタスクを視覚言語モデルがどのように扱うかを評価するためのベンチマークであるMaCBenchを紹介する。
これらのシステムは、基本的な知覚タスクにおいて有望な能力を示すが、空間的推論、クロスモーダル情報合成、論理的推論の基本的な限界を示す。
私たちの洞察は、化学や材料科学以外にも重要な意味を持ち、信頼性の高いマルチモーダルAI科学アシスタントを開発するには、適切なトレーニングデータとそれらのモデルをトレーニングするためのアプローチのキュレーションの進歩が必要であることを示唆している。
論文 参考訳(メタデータ) (2024-11-25T21:51:45Z) - Improving Molecular Modeling with Geometric GNNs: an Empirical Study [56.52346265722167]
本稿では,異なる標準化手法,(2)グラフ作成戦略,(3)補助的なタスクが性能,拡張性,対称性の強制に与える影響に焦点をあてる。
本研究の目的は,分子モデリングタスクに最適なモデリングコンポーネントの選択を研究者に案内することである。
論文 参考訳(メタデータ) (2024-07-11T09:04:12Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - Opportunities for machine learning in scientific discovery [16.526872562935463]
我々は、科学コミュニティが科学的な発見を達成するために機械学習技術をどのように活用できるかをレビューする。
課題は残るが、MLの原則的利用は基本的な科学的発見のための新たな道を開く。
論文 参考訳(メタデータ) (2024-05-07T09:58:02Z) - Understanding Biology in the Age of Artificial Intelligence [4.299566787216408]
現代生命科学の研究は、生物システムをモデル化するための人工知能のアプローチにますます依存している。
機械学習(ML)モデルは、大規模で複雑なデータセットのパターンを特定するのに有用であるが、生物学におけるその広範な応用は、従来の科学的調査方法から大きく逸脱している。
ここでは,生物現象をモデル化し,科学的知識を進化させるために,MLシステムの設計と応用を導く一般的な原理を同定する。
論文 参考訳(メタデータ) (2024-03-06T23:20:34Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - SciInstruct: a Self-Reflective Instruction Annotated Dataset for Training Scientific Language Models [57.96527452844273]
我々はSciInstructを紹介した。SciInstructは、大学レベルの科学的推論が可能な科学言語モデルを訓練するための科学指導スイートである。
我々は、物理学、化学、数学、公式な証明を含む多種多様な高品質なデータセットをキュレートした。
SciInstructの有効性を検証するため、SciInstruct、すなわちChatGLM3(6Bと32B)、Llama3-8B-Instruct、Mistral-7B: MetaMathを用いて言語モデルを微調整した。
論文 参考訳(メタデータ) (2024-01-15T20:22:21Z) - Interpretable and Explainable Machine Learning for Materials Science and
Chemistry [2.2175470459999636]
材料科学・化学における解釈可能性および説明可能性技術の応用を概説する。
材料科学における機械学習の解釈に関する様々な課題について論じる。
我々は、物質科学や化学問題における解釈可能性に恩恵をもたらす可能性のある、他の分野における多くのエキサイティングな展開を紹介します。
論文 参考訳(メタデータ) (2021-11-01T15:40:36Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。