論文の概要: GFT: Graph Feature Tuning for Efficient Point Cloud Analysis
- arxiv url: http://arxiv.org/abs/2511.10799v1
- Date: Thu, 13 Nov 2025 20:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.329687
- Title: GFT: Graph Feature Tuning for Efficient Point Cloud Analysis
- Title(参考訳): GFT: 効率的なポイントクラウド分析のためのグラフ機能チューニング
- Authors: Manish Dhakal, Venkat R. Dasari, Raj Sunderraman, Yi Ding,
- Abstract要約: グラフ特徴チューニング(GFT)は、軽量グラフ畳み込みネットワークを用いてトランスフォーマーの初期トークン化入力から動的グラフを学習する。
オブジェクト分類とセグメンテーションタスクの実験は、GFTが既存の手法に対抗して同じドメインで動作することを示す。
- 参考スコア(独自算出の注目度): 4.161533496483051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameter-efficient fine-tuning (PEFT) significantly reduces computational and memory costs by updating only a small subset of the model's parameters, enabling faster adaptation to new tasks with minimal loss in performance. Previous studies have introduced PEFTs tailored for point cloud data, as general approaches are suboptimal. To further reduce the number of trainable parameters, we propose a point-cloud-specific PEFT, termed Graph Features Tuning (GFT), which learns a dynamic graph from initial tokenized inputs of the transformer using a lightweight graph convolution network and passes these graph features to deeper layers via skip connections and efficient cross-attention modules. Extensive experiments on object classification and segmentation tasks show that GFT operates in the same domain, rivalling existing methods, while reducing the trainable parameters. Code is at https://github.com/manishdhakal/GFT.
- Abstract(参考訳): パラメータ効率の良い微調整(PEFT)は、モデルのパラメータの小さなサブセットだけを更新することで、計算とメモリのコストを大幅に削減し、パフォーマンスの損失を最小限に抑えた新しいタスクへの適応を高速化する。
従来の研究は、点雲データに適したPEFTを導入しており、一般的なアプローチは準最適である。
さらに、トレーニング可能なパラメータの数を減らすために、軽量なグラフ畳み込みネットワークを用いてトランスフォーマーの初期トークン化入力から動的グラフを学習し、これらのグラフ特徴をスキップ接続と効率的なクロスアテンションモジュールを介してより深い層に渡す、ポイントクラウド固有のPEFT、GFT(Graph Features Tuning)を提案する。
オブジェクト分類とセグメンテーションタスクに関する大規模な実験は、GFTが既存のメソッドと競合しながら、トレーニング可能なパラメータを減らしながら、同じドメインで動作していることを示している。
コードはhttps://github.com/manishdhakal/GFTにある。
関連論文リスト
- Token Adaptation via Side Graph Convolution for Efficient Fine-tuning of 3D Point Cloud Transformers [1.19658449368018]
本稿では,近接グラフ(STAG)上でのサイドトークン適応(Side Token Adaptation)と呼ばれる新しいPEFTアルゴリズムを提案する。
STAGは、下流タスクにトークンを適用するために、凍結バックボーントランスフォーマーと並行して動作するグラフ畳み込みサイドネットワークを使用している。
また、さまざまな公開3Dポイントクラウドデータセットからなる新しいベンチマークであるPoint Cloud Classification 13 (PCC13)も紹介する。
論文 参考訳(メタデータ) (2025-02-19T22:58:56Z) - Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
我々は,ポイントクラウドのための新しい固有textbfPointGST (textbfGraph textbfSpectral textbfTuning) 法を提案する。
ポイントGSTは事前訓練されたモデルを凍結し、スペクトル領域の微調整パラメータのための軽量で訓練可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
さまざまなタスクにわたる挑戦的なポイントクラウドデータセットの実験では、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータも大幅に削減されていることが示されている。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - G-Adapter: Towards Structure-Aware Parameter-Efficient Transfer Learning
for Graph Transformer Networks [0.7118812771905295]
特徴分布シフトの問題から,既存のPEFTをグラフベースタスクへ直接転送することが準最適であることを示す。
本稿では,G-Adapter という新しい構造対応PEFT手法を提案する。
大規模な実験により、G-Adapterは9つのグラフベンチマークデータセットと比較すると、最先端のパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-05-17T16:10:36Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。