論文の概要: TilinGNN: Learning to Tile with Self-Supervised Graph Neural Network
- arxiv url: http://arxiv.org/abs/2007.02278v1
- Date: Sun, 5 Jul 2020 10:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:14:00.387173
- Title: TilinGNN: Learning to Tile with Self-Supervised Graph Neural Network
- Title(参考訳): TilinGNN: 自己監視型グラフニューラルネットワークによるテイル学習
- Authors: Hao Xu and Ka Hei Hui and Chi-Wing Fu and Hao Zhang
- Abstract要約: タイリング問題の古典的な事例を解決するための,最初のニューラルネットワーク最適化フレームワークを紹介する。
すなわち、1種類以上のタイルを用いて任意の2次元形状の非周期的タイリングを求める。
我々はTilinGNNというグラフ畳み込みニューラルネットワークを構築し、グラフエッジ上の機能を段階的に伝播し集約する。
- 参考スコア(独自算出の注目度): 53.64132784328536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the first neural optimization framework to solve a classical
instance of the tiling problem. Namely, we seek a non-periodic tiling of an
arbitrary 2D shape using one or more types of tiles: the tiles maximally fill
the shape's interior without overlaps or holes. To start, we reformulate tiling
as a graph problem by modeling candidate tile locations in the target shape as
graph nodes and connectivity between tile locations as edges. Further, we build
a graph convolutional neural network, coined TilinGNN, to progressively
propagate and aggregate features over graph edges and predict tile placements.
TilinGNN is trained by maximizing the tiling coverage on target shapes, while
avoiding overlaps and holes between the tiles. Importantly, our network is
self-supervised, as we articulate these criteria as loss terms defined on the
network outputs, without the need of ground-truth tiling solutions. After
training, the runtime of TilinGNN is roughly linear to the number of candidate
tile locations, significantly outperforming traditional combinatorial search.
We conducted various experiments on a variety of shapes to showcase the speed
and versatility of TilinGNN. We also present comparisons to alternative methods
and manual solutions, robustness analysis, and ablation studies to demonstrate
the quality of our approach.
- Abstract(参考訳): タイリング問題の古典的解法として,最初のニューラル最適化フレームワークを提案する。
すなわち、1種類以上のタイルを用いて任意の2次元形状の周期的でないタイリングを求める。
まず、ターゲット形状の候補タイル位置をグラフノードとしてモデル化し、タイル位置間の接続をエッジとしてモデル化することで、タイリングをグラフ問題として再構成する。
さらに,グラフ畳み込みニューラルネットワークであるtilingnnを構築し,グラフエッジ上で機能を漸進的に伝播・集約し,タイル配置を予測する。
tilingnnは、タイル間の重なりや穴を避けながら、ターゲット形状のタイル被覆を最大化することでトレーニングされる。
重要なことは、ネットワークの出力に定義されている損失項としてこれらの基準を具体化するので、地味なタイリングソリューションは不要である。
トレーニング後、TilinGNNのランタイムは、候補のタイル位置の数とほぼ直線的であり、従来の組合せ探索よりも大幅に優れている。
我々は,TilinGNNの速度と汎用性を示すために,様々な形状の様々な実験を行った。
また,代替法と手動解,ロバスト性解析,アブレーション研究との比較を行い,本手法の質を検証した。
関連論文リスト
- Deep Loss Convexification for Learning Iterative Models [11.36644967267829]
点雲登録のための反復的最近点(ICP)のような反復的手法は、しばしば悪い局所最適性に悩まされる。
我々は,各地真実の周囲に凸景観を形成する学習を提案する。
論文 参考訳(メタデータ) (2024-11-16T01:13:04Z) - A GREAT Architecture for Edge-Based Graph Problems Like TSP [8.922883855120416]
グラフニューラルネットワーク(GNN)は、ルーティング問題などの高密度グラフを操作するには適していない。
グラフエッジ注意ネットワーク(GREAT)と呼ばれる新しいGNN関連エッジベースニューラルモデルを提案する。
GREATは最適エッジの大部分を維持しながらスパースグラフを生成することができることを示す。
論文 参考訳(メタデータ) (2024-08-29T17:07:43Z) - CoRe-GD: A Hierarchical Framework for Scalable Graph Visualization with
GNNs [20.706469085872516]
我々は、ストレスの最適化を学習できるサブクワッドラティックを備えたスケーラブルなグラフニューラルネットワーク(GNN)ベースのグラフ描画フレームワークを導入する。
古典的応力最適化手法と強制指向レイアウトアルゴリズムに着想を得て,入力グラフの粗い階層を生成する。
ネットワーク内の情報伝達を強化するために,新しい位置変換手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T10:50:45Z) - Learning Self-Prior for Mesh Inpainting Using Self-Supervised Graph Convolutional Networks [4.424836140281846]
入力として不完全なメッシュのみを必要とする自己優先型のメッシュインペイントフレームワークを提案する。
本手法は塗装工程を通して多角形メッシュフォーマットを維持している。
提案手法は従来のデータセットに依存しない手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T02:51:38Z) - Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection [57.34881616131377]
異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-12-23T17:30:19Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。