論文の概要: An end-to-end strategy for recovering a free-form potential from a
snapshot of stellar coordinates
- arxiv url: http://arxiv.org/abs/2305.16845v1
- Date: Fri, 26 May 2023 11:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 15:23:30.682334
- Title: An end-to-end strategy for recovering a free-form potential from a
snapshot of stellar coordinates
- Title(参考訳): 恒星座標のスナップショットから自由形ポテンシャルを回復するためのエンドツーエンド戦略
- Authors: Wassim Tenachi, Rodrigo Ibata, Foivos I. Diakogiannis
- Abstract要約: 恒星の位置と速度のスナップショットから自由形解析電位を復元するためのエンドツーエンド戦略を提案する。
まず、ニューラルネットワークの形で重力ポテンシャルとその基礎となるダークマター分布の無知マップを自動微分を用いて捉える方法を示す。
さらに、このニューラルネットワークを物理的に意味のある表現へと開放するために、補完的な記号的回帰アプローチがいかに用いられるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: New large observational surveys such as Gaia are leading us into an era of
data abundance, offering unprecedented opportunities to discover new physical
laws through the power of machine learning. Here we present an end-to-end
strategy for recovering a free-form analytical potential from a mere snapshot
of stellar positions and velocities. First we show how auto-differentiation can
be used to capture an agnostic map of the gravitational potential and its
underlying dark matter distribution in the form of a neural network. However,
in the context of physics, neural networks are both a plague and a blessing as
they are extremely flexible for modeling physical systems but largely consist
in non-interpretable black boxes. Therefore, in addition, we show how a
complementary symbolic regression approach can be used to open up this neural
network into a physically meaningful expression. We demonstrate our strategy by
recovering the potential of a toy isochrone system.
- Abstract(参考訳): gaiaのような新しい大規模な観測調査によって、データ豊富化の時代が到来し、機械学習の力によって新しい物理法則を発見する前例のない機会がもたらされている。
本稿では、恒星の位置と速度のスナップショットから自由形態解析電位を回復するためのエンドツーエンド戦略を提案する。
まず,重力ポテンシャルとその基盤となる暗黒物質分布の非依存なマップをニューラルネットワークとして捉えるために,自己微分がいかに用いられるかを示す。
しかし、物理学の文脈では、ニューラルネットワークは物理的システムをモデル化するのに非常に柔軟であるが、主に解釈不能なブラックボックスで構成されているため、疫病と祝福の両方である。
さらに,このニューラルネットワークを物理的に意味のある表現へと開放するために,補完的な記号回帰アプローチが利用できることを示す。
我々は,おもちゃのイソクロンシステムの可能性を回復することで,この戦略を実証する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Transfer learning in predicting quantum many-body dynamics: from physical observables to entanglement entropy [0.6581635937019595]
本稿では,多体系の物理観測値のサブセットに基づいてトレーニングされたニューラルネットワークの能力について述べる。
特に、トレーニング済みのニューラルネットワークが絡み合いのエントロピーの学習をいかに促進するかに焦点を当てる。
論文 参考訳(メタデータ) (2024-05-25T14:32:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Introduction to dynamical mean-field theory of generic random neural
networks [2.0711789781518752]
初心者がこのツールの本質や基礎となる物理学にアクセスするのは容易ではない。
本稿では,この手法を汎用的ランダムニューラルネットワークの具体例に紹介する。
積分微分平均場方程式を解く数値的実装についても詳述する。
論文 参考訳(メタデータ) (2023-05-15T09:01:40Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Path sampling of recurrent neural networks by incorporating known
physics [0.0]
我々は、再帰的なニューラルネットワークに一般的な熱力学または運動論的制約を組み込むことができる経路サンプリング手法を示す。
本稿では,長期記憶ネットワークとして広く利用されているリカレントニューラルネットワークについて述べる。
我々の手法は、他の生成人工知能モデルや、物理・社会科学の様々な分野における一般的な時系列に容易に一般化できる。
論文 参考訳(メタデータ) (2022-03-01T16:35:50Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Explainable artificial intelligence for mechanics: physics-informing
neural networks for constitutive models [0.0]
メカニクスにおいて、物理インフォームドニューラルネットワークの新しい活発な分野は、機械的知識に基づいてディープニューラルネットワークを設計することによって、この欠点を緩和しようとする。
本論文では,機械データに訓練されたニューラルネットワークを後述する物理形成型アプローチへの第一歩を提案する。
これにより、主成分分析はRNNの細胞状態における分散表現をデコレーションし、既知の基本関数との比較を可能にする。
論文 参考訳(メタデータ) (2021-04-20T18:38:52Z) - Exploring Adversarial Examples via Invertible Neural Networks [10.320129984220857]
逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
論文 参考訳(メタデータ) (2020-12-24T05:17:21Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。