論文の概要: RL unknotter, hard unknots and unknotting number
- arxiv url: http://arxiv.org/abs/2603.07955v1
- Date: Mon, 09 Mar 2026 04:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.487919
- Title: RL unknotter, hard unknots and unknotting number
- Title(参考訳): RL unknotter, hard unknots and unknotting number
- Authors: Anne Dranowski, Yura Kabkov, Daniel Tubbenhauer,
- Abstract要約: 我々は結び目図を簡素化する強化学習パイプラインを開発した。
訓練されたエージェントは、移動の提案とReidemeisterの動きをナビゲートする価値を学ぶ。
私たちはそれを非常に難しい'無意味な図でテストします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a reinforcement learning pipeline for simplifying knot diagrams. A trained agent learns move proposals and a value heuristic for navigating Reidemeister moves. The pipeline applies to arbitrary knots and links; we test it on ``very hard'' unknot diagrams and, using diagram inflation, on $4_1\#9_{10}$ where we recover the recently established and surprising upper bound of three for the unknotting number.
- Abstract(参考訳): 我々は結び目図を簡素化する強化学習パイプラインを開発した。
訓練されたエージェントは、レイデマイスターの動きをナビゲートするための移動提案と価値ヒューリスティックを学びます。
パイプラインは任意の結び目とリンクに適用され、'非常に難しい' カンノット図でテストし、ダイアグラムインフレーションを使用して、最近確立された3つのアンノット数に対して3つの驚くべき上限を回復する4_1\#9_{10}$でテストする。
関連論文リスト
- The unknotting number, hard unknot diagrams, and reinforcement learning [0.7227323884094952]
強化学習エージェントは、最大200回の交差を持つノットダイアグラムの 交差変化の最小シーケンスを見つけます。
我々はこれを57kノットの無作為数を決定するために使用した。
論文 参考訳(メタデータ) (2024-09-13T17:59:52Z) - Complex optical vortex knots [0.0]
任意の結び目やリンクの形状の光学渦を生成できるであろう数学的構成について述べる。
我々は、この主張を、knot テーブル内のすべての knot $K$ に対して、複素体 $Psi:mathbbR3tomathbbC$ を渡る最大 8 までの knot に対して生成し、同軸波動方程式を満たすことによって支持する。
これらの磁場は、既知の例をはるかに超えた結び目を持つ光渦を持つ準軸状態の光ビームを記述する。
論文 参考訳(メタデータ) (2024-07-28T09:39:08Z) - Geometric deep learning approach to knot theory [0.0]
グラフに結び目を取り、グラフニューラルネットワークを使用する関手を構築することにより、結び目データに幾何学的深層学習を用いる新しい手法を提案する。
このアプローチでは、いくつかの結び目不変量を予測しようと試みる。
論文 参考訳(メタデータ) (2023-05-26T10:42:21Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - LiftPool: Lifting-based Graph Pooling for Hierarchical Graph
Representation Learning [53.176603566951016]
階層グラフ表現を改善するために,リフトプール (LiftPool) と呼ばれるリフトによる3段階法を提案する。
各ノードを削除するために、そのローカル情報は、隣接する保存ノードから集約されたグローバル情報を減らして得られる。
ベンチマークグラフデータセットの評価では、LiftPoolはグラフ分類のタスクにおいて最先端のグラフプーリング手法を大幅に上回っている。
論文 参考訳(メタデータ) (2022-04-27T12:38:02Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Learning to Unknot [0.0]
結び目理論の研究に自然言語処理を導入する。
与えられた結び目が無節かどうかを判定するUNKNOT問題について検討する。
ブレイド関係はマルコフ運動の1つよりもカンノットを単純化するのに有用である。
論文 参考訳(メタデータ) (2020-10-28T18:00:05Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。