論文の概要: Approximation of dilation-based spatial relations to add structural
constraints in neural networks
- arxiv url: http://arxiv.org/abs/2102.10923v1
- Date: Mon, 22 Feb 2021 11:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:20:37.827646
- Title: Approximation of dilation-based spatial relations to add structural
constraints in neural networks
- Title(参考訳): ニューラルネットワークの構造的制約を加えるための拡散に基づく空間関係の近似
- Authors: Mateus Riva, Pietro Gori, Florian Yger, Roberto Cesar, Isabelle Bloch
- Abstract要約: 画像中の物体間の空間的関係は、構造的物体認識に有用であることが証明された。
構造要素に等しいカーネルに基づく畳み込みを用いた近似的拡張を提案する。
提案手法は,従来の近似よりもわずかに精度が低いとしても,計算速度が速く,計算集約型ニューラルネットワークアプリケーションに適していることを示す。
- 参考スコア(独自算出の注目度): 5.4352987210173955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial relations between objects in an image have proved useful for
structural object recognition. Structural constraints can act as regularization
in neural network training, improving generalization capability with small
datasets. Several relations can be modeled as a morphological dilation of a
reference object with a structuring element representing the semantics of the
relation, from which the degree of satisfaction of the relation between another
object and the reference object can be derived. However, dilation is not
differentiable, requiring an approximation to be used in the context of
gradient-descent training of a network. We propose to approximate dilations
using convolutions based on a kernel equal to the structuring element. We show
that the proposed approximation, even if slightly less accurate than previous
approximations, is definitely faster to compute and therefore more suitable for
computationally intensive neural network applications.
- Abstract(参考訳): 画像中の物体間の空間的関係は、構造的物体認識に有用であることが証明された。
構造的制約はニューラルネットワークトレーニングの正規化として機能し、小さなデータセットによる一般化能力を向上させる。
いくつかの関係は、関係の意味を表す構造要素を持つ参照対象の形態的拡張としてモデル化することができ、そこから他の対象と参照対象との関係の満足度を導出することができる。
しかし、拡張は微分可能ではなく、ネットワークの勾配-descentトレーニングの文脈で使われる近似を必要とする。
構造要素に等しいカーネルに基づく畳み込みを用いた近似的拡張を提案する。
提案手法は,従来の近似よりもわずかに精度が低いとしても,計算速度が速く,計算集約型ニューラルネットワークアプリケーションに適していることを示す。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [121.65152276851619]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - Sparse Relational Reasoning with Object-Centric Representations [78.83747601814669]
対象中心表現の操作において,リレーショナルニューラルアーキテクチャによって学習されたソフトルールの構成可能性について検討する。
特に特徴量の増加は,いくつかのモデルの性能を向上し,より単純な関係をもたらすことが判明した。
論文 参考訳(メタデータ) (2022-07-15T14:57:33Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Approximation Theory of Convolutional Architectures for Time Series
Modelling [15.42770933459534]
時系列モデリングに適用した畳み込みアーキテクチャの近似特性について検討する。
近年の結果,データ生成プロセスにおける近似効率とメモリ構造との複雑な関係が明らかになった。
論文 参考訳(メタデータ) (2021-07-20T09:19:26Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z) - Investigating the Compositional Structure Of Deep Neural Networks [1.8899300124593645]
本稿では,一方向線形活性化関数の構成構造に基づく新しい理論的枠組みを提案する。
予測ラベルと予測に使用する特定の(線形)変換の両方に関して、入力データのインスタンスを特徴付けることができる。
MNISTデータセットの予備テストでは、ニューラルネットワークの内部表現における類似性に関して、入力インスタンスをグループ化することが可能である。
論文 参考訳(メタデータ) (2020-02-17T14:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。