論文の概要: Transfer Learning for Node Regression Applied to Spreading Prediction
- arxiv url: http://arxiv.org/abs/2104.00088v1
- Date: Wed, 31 Mar 2021 20:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:24:21.324095
- Title: Transfer Learning for Node Regression Applied to Spreading Prediction
- Title(参考訳): 拡散予測に応用したノード回帰の伝達学習
- Authors: Sebastian Me\v{z}nar, Nada Lavra\v{c}, Bla\v{z} \v{S}krlj
- Abstract要約: 特定のノードから拡散する効果を評価するために使用すると、最先端のノード表現学習者の有用性を検討します。
多くの実生活ネットワークはトポロジカルに類似しているため、学習したモデルが以前見つからなかったネットワークに一般化するかどうかを体系的に調査する。
これはノード回帰タスクにおけるゼロショット転送の有用性を評価する最初の試みの1つである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how information propagates in real-life complex networks yields
a better understanding of dynamic processes such as misinformation or epidemic
spreading. The recently introduced branch of machine learning methods for
learning node representations offers many novel applications, one of them being
the task of spreading prediction addressed in this paper. We explore the
utility of the state-of-the-art node representation learners when used to
assess the effects of spreading from a given node, estimated via extensive
simulations. Further, as many real-life networks are topologically similar, we
systematically investigate whether the learned models generalize to previously
unseen networks, showing that in some cases very good model transfer can be
obtained. This work is one of the first to explore transferability of the
learned representations for the task of node regression; we show there exist
pairs of networks with similar structure between which the trained models can
be transferred (zero-shot), and demonstrate their competitive performance. To
our knowledge, this is one of the first attempts to evaluate the utility of
zero-shot transfer for the task of node regression.
- Abstract(参考訳): 情報がどのように現実の複雑なネットワークに伝播するかを理解することは、誤った情報や流行といった動的なプロセスの理解を深める。
最近導入されたノード表現を学習するための機械学習手法の分野は、多くの新しい応用を提供しており、そのうちの1つは、本論文で論じられた予測を広めるタスクである。
我々は,与えられたノードから拡散する影響を評価する際に,最先端のノード表現学習者の有用性について,広範囲なシミュレーションにより検討する。
さらに,多くの実生活ネットワークが位相的に類似していることから,学習モデルが従来認識されていなかったネットワークに一般化するかどうかを体系的に検討する。
この研究は、ノード回帰のタスクにおける学習表現の転送可能性を探る最初の試みの1つであり、トレーニングされたモデルを転送できる構造(ゼロショット)に類似した構造を持つネットワークのペアが存在することを示し、その競合性能を示す。
我々の知る限り、これはノード回帰のタスクに対するゼロショット転送の有用性を評価する最初の試みの1つである。
関連論文リスト
- Operator Learning Meets Numerical Analysis: Improving Neural Networks
through Iterative Methods [2.226971382808806]
演算子方程式の反復的手法に基づく理論的枠組みを開発する。
拡散モデルやAlphaFoldのような一般的なアーキテクチャは本質的に反復的演算子学習を採用していることを実証する。
本研究の目的は,数値解析から洞察を融合させることにより,ディープラーニングの理解を深めることである。
論文 参考訳(メタデータ) (2023-10-02T20:25:36Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Being Friends Instead of Adversaries: Deep Networks Learn from Data
Simplified by Other Networks [23.886422706697882]
フレンドリートレーニング(Friendly Training)は、自動的に推定される摂動を追加することで入力データを変更するものである。
本稿では,ニューラルネットワークの有効性に触発されて,このアイデアを再考し,拡張する。
本稿では,入力データの変更に責任を負う補助的な多層ネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-18T16:59:35Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。