論文の概要: Active Few-Shot Learning for Vertex Classification Starting from an Unlabeled Dataset
- arxiv url: http://arxiv.org/abs/2504.18696v1
- Date: Fri, 25 Apr 2025 21:05:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.950739
- Title: Active Few-Shot Learning for Vertex Classification Starting from an Unlabeled Dataset
- Title(参考訳): ラベルなしデータセットから始まる頂点分類のためのアクティブFew-Shot学習
- Authors: Felix Burr, Marcel Hoffmann, Ansgar Scherp,
- Abstract要約: 我々は、頂点を持つ人間のアノテータにアノテートを反復的に促すことでモデルを訓練する。
私たちは3つの実験を行い、仮定を継続的に緩和します。
その結果,クラス毎に20ドル未満のサンプルが利用できる場合,原型モデルではすべての実験において差別モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 3.0177210416625115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the ample availability of graph data, obtaining vertex labels is a tedious and expensive task. Therefore, it is desirable to learn from a few labeled vertices only. Existing few-shot learners assume a class oracle, which provides labeled vertices for a desired class. However, such an oracle is not available in a real-world setting, i.e., when drawing a vertex for labeling it is unknown to which class the vertex belongs. Few-shot learners are often combined with prototypical networks, while classical semi-supervised vertex classification uses discriminative models, e.g., Graph Convolutional Networks (GCN). In this paper, we train our models by iteratively prompting a human annotator with vertices to annotate. We perform three experiments where we continually relax our assumptions. First, we assume a class oracle, i.e., the human annotator is provided with an equal number of vertices to label for each class. We denote this as "Balanced Sampling''. In the subsequent experiment, "Unbalanced Sampling,'' we replace the class oracle with $k$-medoids clustering and draw vertices to label from the clusters. In the last experiment, the "Unknown Number of Classes,'' we no longer assumed we knew the number and distribution of classes. Our results show that prototypical models outperform discriminative models in all experiments when fewer than $20$ samples per class are available. While dropping the assumption of the class oracle for the "Unbalanced Sampling'' experiment reduces the performance of the GCN by $9\%$, the prototypical network loses only $1\%$ on average. For the "Unknown Number of Classes'' experiment, the average performance for both models decreased further by $1\%$. Source code: https://github.com/Ximsa/2023-felix-ma
- Abstract(参考訳): グラフデータが豊富にあるにもかかわらず、頂点ラベルを取得するのは面倒で高価な作業である。
したがって、ラベル付き頂点のみから学ぶことが望ましい。
既存の数発の学習者は、所望のクラスにラベル付き頂点を提供するクラスオラクルを仮定する。
しかし、そのようなオラクルは現実世界の環境では利用できない、すなわち、頂点がどのクラスに属しているかがわからないことをラベル付けするための頂点を描くときである。
従来の半教師付き頂点分類では差別モデル(例えば、Graph Convolutional Networks (GCN))を使用している。
本稿では,頂点を持つ人間のアノテータにアノテートを反復的に促すことで,モデルを訓練する。
私たちは3つの実験を行い、仮定を継続的に緩和します。
第一に、類オラクル、すなわち、人間のアノテータは各クラスにラベル付けするための等しい数の頂点を持つと仮定する。
以下の実験では、クラスのオラクルを$k$-medoidsクラスタに置き換え、クラスタからのラベルに頂点を描画します。
前回の実験で、"Unknown Number of Classes,'は、もはやクラスの数と分布を知らなかったと仮定した。我々の結果は、プロトタイプモデルは、クラス毎に20ドル未満のサンプルが利用可能である場合、すべての実験において差別モデルよりも優れていることを示している。"Un Balanced Sampling'実験のクラスオラクルの仮定を廃止したことにより、GCNのパフォーマンスが9.5%低下する一方、プロトタイプネットワークは平均で1.5%低下する。
未知のクラス数」実験では,両モデルの平均性能が1\%以上低下した。
ソースコード:https://github.com/Ximsa/2023-felix-ma
関連論文リスト
- Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Self-Directed Learning of Convex Labelings on Graphs [11.286983359775512]
本研究では,自己指向型学習環境において,与えられたグラフのノードを分類する問題について検討する。
この学習設定はオンライン学習の変種であり、敵がノードのシーケンスを決定するのではなく、学習者が自律的にそれらを選択する。
自己指向ユークリッド半空間や一般の多クラス仮説クラスは検討されたが、グラフ上の自己指向ノード分類に関して、これまではいかなる結果も存在しなかった。
論文 参考訳(メタデータ) (2024-09-02T19:13:26Z) - POWN: Prototypical Open-World Node Classification [6.704529554100875]
我々は,実世界の半教師付きノード分類の問題を考える。
既存のメソッドは、新しいクラスを検出して拒否するが、異なる新しいクラスを区別することができない。
本稿では,クラスプロトタイプをベースとした,既知のクラスと新しいクラスに分類する,新しいエンドツーエンドアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-14T11:14:01Z) - Open-World Semi-Supervised Learning for Node Classification [53.07866559269709]
ノード分類のためのオープンワールド半教師付き学習(Open World SSL)は、グラフコミュニティにおいて実用的だが未探索の課題である。
オープンワールド半教師付きノード分類のためのIM Balance-AwareメソッドOpenIMAを提案する。
論文 参考訳(メタデータ) (2024-03-18T05:12:54Z) - GraphSHA: Synthesizing Harder Samples for Class-Imbalanced Node
Classification [64.85392028383164]
クラス不均衡は、いくつかのクラスが他のクラスよりもはるかに少ないインスタンスを持つ現象である。
近年の研究では、既成のグラフニューラルネットワーク(GNN)が、マイナーなクラスサンプルを以下に表現することが確認されている。
HArderマイナーサンプルの合成によるGraphSHAの汎用化を提案する。
論文 参考訳(メタデータ) (2023-06-16T04:05:58Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Geometer: Graph Few-Shot Class-Incremental Learning via Prototype
Representation [50.772432242082914]
既存のグラフニューラルネットワークに基づく手法は主に、豊富なラベリングを持つ固定クラス内の未ラベルノードの分類に重点を置いている。
本稿では,この難易度で実用的なグラフ数ショットクラスインクリメンタルラーニング(GFSCIL)問題に着目し,Geometerと呼ばれる新しい手法を提案する。
完全に接続されたニューラルネットワークのクラスを置き換えて再トレーニングする代わりに、Geometerは、最も近いクラスのプロトタイプを見つけることによって、ノードのラベルを予測する。
論文 参考訳(メタデータ) (2022-05-27T13:02:07Z) - Graph Summarization with Graph Neural Networks [2.449909275410288]
グラフニューラルネットワークを用いて、構造化されたコンパクトな方法で大きなグラフを表現する。
異なるGNNと標準多層パーセプトロン(MLP)とブルームフィルタを非神経的手法として比較する。
以上の結果から,GNNの性能は互いに近いことが明らかとなった。
論文 参考訳(メタデータ) (2022-03-11T13:45:34Z) - GraphMixup: Improving Class-Imbalanced Node Classification on Graphs by
Self-supervised Context Prediction [25.679620842010422]
本稿では,グラフ上のクラス不均衡ノード分類を改善するための新しい混合フレームワークであるGraphMixupを提案する。
我々は,これらのマイノリティクラスに対する混合によって生成されるサンプル数を適応的に決定するEmphReinforcement Mixupメカニズムを開発した。
3つの実世界のデータセットの実験により、GraphMixupはクラス不均衡なノード分類タスクに対して真に励まされる結果が得られることが示された。
論文 参考訳(メタデータ) (2021-06-21T14:12:16Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。