論文の概要: Selecting the Points for Training using Graph Centrality
- arxiv url: http://arxiv.org/abs/2104.14123v1
- Date: Thu, 29 Apr 2021 05:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 21:33:00.145680
- Title: Selecting the Points for Training using Graph Centrality
- Title(参考訳): グラフ中心性を用いたトレーニングポイントの選択
- Authors: Sandeep CR, Asif Salim and Sumitra S
- Abstract要約: トレーニングのためのグラフデータセット内のノードを選択する方法を説明し、トレーニング目的で他のポイントを選択した場合、選択したポイントで訓練されたモデルがより良いものになるようにします。
最初にラベル付けとトレーニングのためのノードを選択するためにGraph Centralityの概念を使用する方法を思いつき、トレーニングは一度だけ実行する必要があります。
- 参考スコア(独自算出の注目度): 1.0705399532413615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a method to select the nodes in Graph datasets for training so
that the model trained on the points selected will be be better than the ones
if we select other points for the purpose of training. This is a very important
aspect as the process of labelling the points is often a costly affair. The
usual Active Learning methods are good but the penalty involved with these
methods is that, we need to re-train the model after selecting the nodes in
each iteration of Active Learning cycle. We come up with a method which use the
concept of Graph Centrality to select the nodes for labeling and training
initially and the training is needed to perform only once. We have tested this
idea on three graph datasets - Cora, Citeseer and Pubmed- and the results are
really encouraging.
- Abstract(参考訳): トレーニングのためにグラフデータセット内のノードを選択する方法を説明し、選択したポイントでトレーニングされたモデルが、トレーニングのために他のポイントを選択する場合よりも優れているようにします。
ポイントをラベル付けするプロセスは、しばしばコストがかかる問題であるので、これは非常に重要な側面です。
通常のアクティブラーニング手法はよいが、これらの手法に関わるペナルティは、アクティブラーニングサイクルの各イテレーションでノードを選択した後、モデルを再訓練する必要があることである。
まず,グラフ中心性(graph centrality)という概念を用いてラベル付けとトレーニングを行うノードを選択する手法を考案した。
私たちはこのアイデアをCora、Citeseer、Pubmedの3つのグラフデータセットでテストしました。
関連論文リスト
- Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Prioritized training on points that are learnable, worth learning, and
not yet learned (workshop version) [41.3646395594531]
Goldilocks Selectionは、"正しい"トレーニングポイントのシーケンスを選択する、より高速なモデルトレーニングのためのテクニックである。
我々は,情報理論獲得関数,すなわち再現可能なバリデーション損失を提案し,それを小さなプロキシモデルであるGoldiProxで計算する。
論文 参考訳(メタデータ) (2021-07-06T12:08:44Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - When Contrastive Learning Meets Active Learning: A Novel Graph Active
Learning Paradigm with Self-Supervision [19.938379604834743]
本稿では,グラフニューラルネットワーク(GNN)の性能を最大化するための最も情報性の高いノードを発見することを目的とした,グラフ上のアクティブラーニング(AL)について検討する。
比較学習(CL)の成功に触発され,グラフALをCLとシームレスに統合する新しいパラダイムを提案する。
5つの公開データセットに対する包括的かつ不確定な実験は、我々の手法が最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-30T06:20:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。