論文の概要: Understanding the Limitations of Network Online Learning
- arxiv url: http://arxiv.org/abs/2001.07607v1
- Date: Thu, 9 Jan 2020 13:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:30:49.471513
- Title: Understanding the Limitations of Network Online Learning
- Title(参考訳): ネットワークオンライン学習の限界を理解する
- Authors: Timothy LaRock, Timothy Sakharov, Sahely Bhadra, Tina Eliassi-Rad
- Abstract要約: ノードクエリによって部分的に観測されたネットワークを完結させる学習の限界について検討する。
我々はこのクエリ処理をNetwork Online Learningと呼び、NOL*と呼ばれるアルゴリズム群を提示する。
- 参考スコア(独自算出の注目度): 5.925292989496618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies of networked phenomena, such as interactions in online social media,
often rely on incomplete data, either because these phenomena are partially
observed, or because the data is too large or expensive to acquire all at once.
Analysis of incomplete data leads to skewed or misleading results. In this
paper, we investigate limitations of learning to complete partially observed
networks via node querying. Concretely, we study the following problem: given
(i) a partially observed network, (ii) the ability to query nodes for their
connections (e.g., by accessing an API), and (iii) a budget on the number of
such queries, sequentially learn which nodes to query in order to maximally
increase observability. We call this querying process Network Online Learning
and present a family of algorithms called NOL*. These algorithms learn to
choose which partially observed node to query next based on a parameterized
model that is trained online through a process of exploration and exploitation.
Extensive experiments on both synthetic and real world networks show that (i)
it is possible to sequentially learn to choose which nodes are best to query in
a network and (ii) some macroscopic properties of networks, such as the degree
distribution and modular structure, impact the potential for learning and the
optimal amount of random exploration.
- Abstract(参考訳): オンラインソーシャルメディアでのインタラクションのようなネットワーク化された現象の研究は、これらの現象が部分的に観察されているか、データがすべて取得するには大きすぎるか高価すぎるため、不完全なデータに依存することが多い。
不完全なデータの解析は、歪んだ結果や誤解を招く結果をもたらす。
本稿では,ノードクエリによる部分観測ネットワークの完全化に対する学習の限界について検討する。
具体的には,以下の問題を研究する。
(i)部分的に観察されたネットワーク
(ii)その接続(例えば、apiへのアクセスによって)のノードに問い合わせる能力、及び
(iii)そのようなクエリの数に関する予算は、可観測性を最大限に高めるために、どのノードに問い合わせるべきかを順次学習する。
我々はこのクエリ処理をNetwork Online Learningと呼び、NOL*と呼ばれるアルゴリズム群を提示する。
これらのアルゴリズムは、探索とエクスプロイトのプロセスを通じてオンラインにトレーニングされたパラメータ化モデルに基づいて、次にクエリする部分的なノードを選択することを学ぶ。
人工ネットワークと実世界ネットワークの両方で 大規模な実験が行われました
(i)どのノードが最適なクエリをネットワーク上で選択するかを逐次学習することが可能である。
(ii) 次数分布やモジュラー構造といったネットワークのマクロな性質は、学習の可能性やランダム探索の最適量に影響を与える。
関連論文リスト
- Unsupervised Learning via Network-Aware Embeddings [0.0]
ノード属性間のネットワーク距離を推定することにより,ネットワーク対応の埋め込みを作成する方法を示す。
提案手法は完全オープンソースであり, 論文中のすべての結果を再現するためのデータとコードは利用可能である。
論文 参考訳(メタデータ) (2023-09-19T08:17:48Z) - Gossiped and Quantized Online Multi-Kernel Learning [39.057968279167966]
ネットワーク内の各ノードが通信できる限り、分散およびオンラインマルチカーネル学習がサブ線形後悔をもたらすことを示す。
このレターは、これらの結果を非完全連結グラフに拡張するが、これは無線センサーネットワークでよく見られる。
本稿では,ゴシップアルゴリズムを提案し,それがサブ線形後悔を達成できることを示す。
論文 参考訳(メタデータ) (2023-01-24T07:12:40Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - Temporal Network Representation Learning via Historical Neighborhoods
Aggregation [28.397309507168128]
本稿では,EHNAアルゴリズムによる埋め込みを提案する。
まず,歴史地区のノードを特定できる時間的ランダムウォークを提案する。
次に,ノード埋め込みを誘導するカスタムアテンション機構を用いたディープラーニングモデルを適用する。
論文 参考訳(メタデータ) (2020-03-30T04:18:48Z) - Inference for Network Structure and Dynamics from Time Series Data via
Graph Neural Network [21.047133113979083]
本稿では,Gumbel Graph Network (GGN) と呼ばれる新しいデータ駆動型ディープラーニングモデルを提案する。
本手法は,ネットワーク再構築作業において,最大100%のネットワーク構造を再構築することができる。
モデルは未知の構造の部分を最大90%の精度で推測することもできますが、いくつかのノードが欠落している場合もあります。
論文 参考訳(メタデータ) (2020-01-18T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。