論文の概要: Representing Prior Knowledge Using Randomly, Weighted Feature Networks
for Visual Relationship Detection
- arxiv url: http://arxiv.org/abs/2111.10686v1
- Date: Sat, 20 Nov 2021 21:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 10:56:58.673594
- Title: Representing Prior Knowledge Using Randomly, Weighted Feature Networks
for Visual Relationship Detection
- Title(参考訳): ランダム重み付け特徴ネットワークを用いた視覚関係検出のための事前知識表現
- Authors: Jinyung Hong, Theodore P. Pavlic
- Abstract要約: RWFN (Randomly Weighted Feature Network) - 香港とパヴリックが導入。
本稿では,RWFNを用いて視覚的関係検出(VRD)タスクを行う。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The single-hidden-layer Randomly Weighted Feature Network (RWFN) introduced
by Hong and Pavlic (2021) was developed as an alternative to neural tensor
network approaches for relational learning tasks. Its relatively small
footprint combined with the use of two randomized input projections -- an
insect-brain-inspired input representation and random Fourier features -- allow
it to achieve rich expressiveness for relational learning with relatively low
training cost. In particular, when Hong and Pavlic compared RWFN to Logic
Tensor Networks (LTNs) for Semantic Image Interpretation (SII) tasks to extract
structured semantic descriptions from images, they showed that the RWFN
integration of the two hidden, randomized representations better captures
relationships among inputs with a faster training process even though it uses
far fewer learnable parameters. In this paper, we use RWFNs to perform Visual
Relationship Detection (VRD) tasks, which are more challenging SII tasks. A
zero-shot learning approach is used with RWFN that can exploit similarities
with other seen relationships and background knowledge -- expressed with
logical constraints between subjects, relations, and objects -- to achieve the
ability to predict triples that do not appear in the training set. The
experiments on the Visual Relationship Dataset to compare the performance
between RWFNs and LTNs, one of the leading Statistical Relational Learning
frameworks, show that RWFNs outperform LTNs for the predicate-detection task
while using fewer number of adaptable parameters (1:56 ratio). Furthermore,
background knowledge represented by RWFNs can be used to alleviate the
incompleteness of training sets even though the space complexity of RWFNs is
much smaller than LTNs (1:27 ratio).
- Abstract(参考訳): RWFN (Randomly Weighted Feature Network) は,Hong and Pavlic (2021) が導入した,リレーショナル学習タスクのための神経テンソルネットワークアプローチの代替として開発された。
比較的小さなフットプリントと2つのランダム化された入力プロジェクション(昆虫脳にインスパイアされた入力表現とランダムなフーリエ特徴)を組み合わせることで、比較的低いトレーニングコストでリレーショナル学習のためのリッチな表現性を実現できる。
特にHongとPavlicは、RWFNと論理テンソルネットワーク(LTN)を比較して、画像から構造的意味記述を抽出するSII(Semantic Image Interpretation)タスクについて、RWFNの統合により、学習可能なパラメータがはるかに少ないにもかかわらず、より高速なトレーニングプロセスで、入力間の関係をよりよく捉えることを示した。
本稿では、より困難なSIIタスクである視覚的関係検出(VRD)タスクの実行にRWFNを使用する。
ゼロショット学習アプローチは、トレーニングセットに現れないトリプルを予測する能力を達成するために、他の見られる関係や背景知識(主題、関係、オブジェクト間の論理的制約で表現される)と類似性を利用することができるRWFNで使用される。
統計関係学習フレームワークの1つであるRWFNとLTNのパフォーマンスを比較するためのVisual Relation Datasetの実験では、RWFNは適応可能なパラメータの少ない(1:56比)で、述語検出タスクにおいてLTNよりも優れていた。
さらに、RWFNsの空間的複雑さがLTNs(1:27比)よりもはるかに小さいにもかかわらず、トレーニングセットの不完全性を緩和するためにRWFNsで表される背景知識を使用することができる。
関連論文リスト
- Neural Reasoning Networks: Efficient Interpretable Neural Networks With Automatic Textual Explanations [45.974930902038494]
本稿では,新しいニューラルシンボリックアーキテクチャであるニューラル推論ネットワーク(NRN)を提案する。
トレーニングアルゴリズム(R-NRN)は、バックプロップによる降下最適化を用いて、通常通りネットワークの重みを学習するが、また、帯域ベース最適化を用いてネットワーク構造自体を学習する。
R-NRNの説明は、比較したアプローチよりも短いが、より正確な特徴重要度スコアを生成する。
論文 参考訳(メタデータ) (2024-10-10T14:27:12Z) - Implicit Neural Representations with Fourier Kolmogorov-Arnold Networks [4.499833362998488]
入射神経表現(INR)は、複雑な信号の連続的および分解非依存的な表現を提供するためにニューラルネットワークを使用する。
提案したFKANは、第1層のフーリエ級数としてモデル化された学習可能なアクティベーション関数を用いて、タスク固有の周波数成分を効果的に制御し、学習する。
実験結果から,提案したFKANモデルは,最先端の3つのベースラインスキームよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-09-14T05:53:33Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - An Insect-Inspired Randomly, Weighted Neural Network with Random Fourier
Features For Neuro-Symbolic Relational Learning [2.28438857884398]
適応線形モデルをデコーダとして用いたエンコーダにランダムに描画された未学習重みを組み込んだランダム重み付き特徴ネットワークを提案する。
この特殊表現により、RWFNは線形デコーダモデルのみを訓練することで、入力間の関係の度合いを効果的に学習することができる。
LTNと比較して、RWFNsはオブジェクト分類とSIIタスクにおけるオブジェクト間の部分関係の検出の両方において、より良い、あるいは類似した性能を達成できることを実証した。
論文 参考訳(メタデータ) (2021-09-11T22:45:08Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Randomly Weighted, Untrained Neural Tensor Networks Achieve Greater
Relational Expressiveness [3.5408022972081694]
ランダムに描画された未学習テンソルをトレーニングされたデコーダネットワークを備えたネットワークに組み込むランダム重み付きネットワーク(RWTN)を提案する。
RWTNは、画像解釈(SIITN)のために伝統的に訓練されたLTNのパフォーマンスを満たすか、超えるかを示す。
RWTNは、学習に少ないパラメータを使用しながら、オブジェクト分類においてLTNと同等のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2020-06-01T19:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。