論文の概要: Explainable AI for High Energy Physics
- arxiv url: http://arxiv.org/abs/2206.06632v1
- Date: Tue, 14 Jun 2022 06:46:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 03:02:52.305162
- Title: Explainable AI for High Energy Physics
- Title(参考訳): 高エネルギー物理のための説明可能なAI
- Authors: Mark S. Neubauer, Avik Roy
- Abstract要約: 説明可能なAI(xAI)メソッドは、ニューラルネットワークとデータとの関係を決定するのに有用である。
本稿では,高エネルギー物理学における問題文脈におけるxAI手法の活用の可能性について考察する。
- 参考スコア(独自算出の注目度): 4.553120911976256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Networks are ubiquitous in high energy physics research. However,
these highly nonlinear parameterized functions are treated as \textit{black
boxes}- whose inner workings to convey information and build the desired
input-output relationship are often intractable. Explainable AI (xAI) methods
can be useful in determining a neural model's relationship with data toward
making it \textit{interpretable} by establishing a quantitative and tractable
relationship between the input and the model's output. In this letter of
interest, we explore the potential of using xAI methods in the context of
problems in high energy physics.
- Abstract(参考訳): ニューラルネットワークは高エネルギー物理学研究においてユビキタスである。
しかし、これらの非常に非線形なパラメータ化関数は、情報伝達と所望の入出力関係を構築する内部作業がしばしば難解な \textit{black box} として扱われる。
説明可能なAI(xAI)手法は、入力とモデルの出力の間の定量的かつトラクタブルな関係を確立することにより、データとニューラルモデルの関係を決定するのに有用である。
本稿では,高エネルギー物理学における問題文脈におけるxAI手法の活用の可能性について考察する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Understanding Generative AI Content with Embedding Models [4.662332573448995]
この研究は、現代のディープニューラルネットワーク(DNN)の内部表現を、従来の機能エンジニアリングの自動化形式として捉えている。
これらの埋め込みは、非構造化サンプルデータに解釈可能で高レベルな概念を明らかにすることができることを示す。
実データとAIモデルから生成されたデータの間には、本質的に分離性が存在するという実証的な証拠が見つかる。
論文 参考訳(メタデータ) (2024-08-19T22:07:05Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Physics-Encoded Graph Neural Networks for Deformation Prediction under
Contact [87.69278096528156]
ロボット工学では、触覚相互作用における物体の変形を理解することが不可欠である。
本稿では,物理符号化グラフニューラルネットワーク(GNN)を用いた予測手法を提案する。
コードとデータセットを公開して、ロボットシミュレーションと把握の研究を進めました。
論文 参考訳(メタデータ) (2024-02-05T19:21:52Z) - Inferring Relational Potentials in Interacting Systems [56.498417950856904]
このような相互作用を発見する代替手法として、ニューラル・インタラクション・推論(NIIP)を提案する。
NIIPは観測された関係制約を尊重する軌道のサブセットに低エネルギーを割り当てる。
別々に訓練されたモデル間での相互作用の型を交換するなどの軌道操作や、軌道予測を可能にする。
論文 参考訳(メタデータ) (2023-10-23T00:44:17Z) - Scalable Coupling of Deep Learning with Logical Reasoning [0.0]
NPハード推論問題の制約と基準を学習するために,スケーラブルなニューラルアーキテクチャと損失関数を導入する。
我々の損失関数は、Besagの擬似対数関係の主な制限の1つを解き、高エネルギーの学習を可能にする。
論文 参考訳(メタデータ) (2023-05-12T17:09:34Z) - Physics-Inspired Interpretability Of Machine Learning Models [0.0]
機械学習モデルによる意思決定を説明する能力は、AIの普及に最も大きなハードルのひとつだ。
本研究では,エネルギー景観分野の手法にインスパイアされた入力データの特徴を同定する手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T11:35:17Z) - On the Integration of Physics-Based Machine Learning with Hierarchical
Bayesian Modeling Techniques [0.0]
本稿では,ガウス過程(GP)モデルの平均関数にメカニクスに基づくモデルを組み込み,カーネルマシンによる潜在的な不一致を特徴付けることを提案する。
カーネル関数の定常性は、階層的ベイズ手法によって解決された長いデータセットの逐次処理において難しいハードルである。
数値および実験例を用いて, 構造力学逆問題に対する提案手法の可能性を示した。
論文 参考訳(メタデータ) (2023-03-01T02:29:41Z) - Learning Physics-Consistent Particle Interactions [3.9686511558236055]
本稿では,グラフネットワークフレームワークを適応させるアルゴリズムを提案する。このアルゴリズムは,一対の相互作用を学習するためのエッジ部分と,粒子レベルでのダイナミクスをモデル化するためのノード部分を含む。
提案手法を複数のデータセット上で検証し、ペアの相互作用を正確に推定する際の性能がかなり向上することを示した。
論文 参考訳(メタデータ) (2022-02-01T09:59:53Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。