論文の概要: On the Learnability of Knot Invariants: Representation, Predictability, and Neural Similarity
- arxiv url: http://arxiv.org/abs/2502.12243v1
- Date: Mon, 17 Feb 2025 19:00:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:50.854528
- Title: On the Learnability of Knot Invariants: Representation, Predictability, and Neural Similarity
- Title(参考訳): 結び目不変量の学習可能性:表現性、予測可能性、およびニューラル類似性について
- Authors: Audrey Lindsay, Fabian Ruehle,
- Abstract要約: 異なる結び目表現が不変量の予測に与える影響について検討し、編み目表現が一般に最も有効であることを示す。
第二に、結び目不変量(knot invariants)は、双曲幾何学や結び目図形(knot diagrams)から派生した不変量(invariants)を学習しやすくする。
第3に,勾配分布ベクトルに基づくコサイン類似度スコアと,関連するトポロジ的不変量を予測するために訓練されたニューラルネットワークの類似度を明らかにするための共同誤分類スコアを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We analyze different aspects of neural network predictions of knot invariants. First, we investigate the impact of different knot representations on the prediction of invariants and find that braid representations work in general the best. Second, we study which knot invariants are easy to learn, with invariants derived from hyperbolic geometry and knot diagrams being very easy to learn, while invariants derived from topological or homological data are harder. Predicting the Arf invariant could not be learned for any representation. Third, we propose a cosine similarity score based on gradient saliency vectors, and a joint misclassification score to uncover similarities in neural networks trained to predict related topological invariants.
- Abstract(参考訳): 我々は結び目不変量のニューラルネットワーク予測のさまざまな側面を分析する。
まず、異なる結び目表現が不変量の予測に与える影響を調査し、ブレイド表現が一般に最もよく機能することを示す。
第二に、結び目不変量(knot invariants)は、双曲幾何学や結び目図(knot diagrams)から派生した不変量(invariants)が非常に学習しやすく、また位相データやホモロジーデータから派生した不変量(invariants)は困難である。
Arf不変量を予測することは、いかなる表現に対しても学べなかった。
第3に,勾配分布ベクトルに基づくコサイン類似度スコアと,関連するトポロジ的不変量を予測するために訓練されたニューラルネットワークの類似度を明らかにするための共同誤分類スコアを提案する。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Equivariant neural networks and piecewise linear representation theory [0.0]
等価ニューラルネットワークは対称性を持つニューラルネットワークである。
群表現の理論により、同変ニューラルネットワークの層を単純な表現に分解する。
論文 参考訳(メタデータ) (2024-08-01T23:08:37Z) - Interpreting Equivariant Representations [4.738231680800414]
本稿では,同変モデルによる帰納バイアスも潜在表現を用いて考慮する必要があることを示す。
インダクティブバイアスを考慮しないと下流タスクのパフォーマンスが低下することを示す。
論文 参考訳(メタデータ) (2024-01-23T09:43:30Z) - A Characterization Theorem for Equivariant Networks with Point-wise
Activations [13.00676132572457]
回転同変ネットワークは、連結コンパクト群に対して同変である任意のネットワークに対してのみ不変であることを示す。
本稿では, 畳み込み可能な畳み込み型ニューラルネットワークの特徴空間が, 自明な表現であることを示す。
論文 参考訳(メタデータ) (2024-01-17T14:30:46Z) - Symmetry Breaking and Equivariant Neural Networks [17.740760773905986]
我々は「緩和された同注入」という新しい概念を導入する。
我々は、この緩和を同変多層パーセプトロン(E-MLP)に組み込む方法を示す。
対称性の破れの関連性は、様々な応用領域で議論される。
論文 参考訳(メタデータ) (2023-12-14T15:06:48Z) - Environment Diversification with Multi-head Neural Network for Invariant
Learning [7.255121332331688]
この研究は、データバイアスを吸収するマルチヘッドニューラルネットワークを含む不変学習フレームワークEDNILを提案する。
このフレームワークは環境に関する事前の知識や事前訓練されたモデルに関する強い仮定を必要としないことを示す。
EDNILでトレーニングされたモデルは、分布シフトに対して実験的に堅牢であることを示す。
論文 参考訳(メタデータ) (2023-08-17T04:33:38Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。