論文の概要: RL-AD-Net: Reinforcement Learning Guided Adaptive Displacement in Latent Space for Refined Point Cloud Completion
- arxiv url: http://arxiv.org/abs/2511.17054v1
- Date: Fri, 21 Nov 2025 08:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.947733
- Title: RL-AD-Net: Reinforcement Learning Guided Adaptive Displacement in Latent Space for Refined Point Cloud Completion
- Title(参考訳): RL-AD-Net: 補修点クラウド補完のための遅延空間における適応変位の強化学習ガイド
- Authors: Bhanu Pratap Paregi, Vaibhav Kumar,
- Abstract要約: 本稿では,事前学習点オートエンコーダの潜在空間で動作する強化学習フレームワークであるRL-AD-Netを提案する。
頑健性を確保するために、軽量な非パラメトリックPointNNセレクタは、元の完備化とRL精製出力の両方の幾何的整合性を評価する。
ShapeNetCore-2048の実験では、ベースライン完了ネットワークはトレーニングスタイルの収穫において合理的に機能するが、ランダムな収穫シナリオで苦労することを示した。
- 参考スコア(独自算出の注目度): 9.252819624397405
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent point cloud completion models, including transformer-based, denoising-based, and other state-of-the-art approaches, generate globally plausible shapes from partial inputs but often leave local geometric inconsistencies. We propose RL-AD-Net, a reinforcement learning (RL) refinement framework that operates in the latent space of a pretrained point autoencoder. The autoencoder encodes completions into compact global feature vectors (GFVs), which are selectively adjusted by an RL agent to improve geometric fidelity. To ensure robustness, a lightweight non-parametric PointNN selector evaluates the geometric consistency of both the original completion and the RL-refined output, retaining the better reconstruction. When ground truth is available, both Chamfer Distance and geometric consistency metrics guide refinement. Training is performed separately per category, since the unsupervised and dynamic nature of RL makes convergence across highly diverse categories challenging. Nevertheless, the framework can be extended to multi-category refinement in future work. Experiments on ShapeNetCore-2048 demonstrate that while baseline completion networks perform reasonable under their training-style cropping, they struggle in random cropping scenarios. In contrast, RL-AD-Net consistently delivers improvements across both settings, highlighting the effectiveness of RL-guided ensemble refinement. The approach is lightweight, modular, and model-agnostic, making it applicable to a wide range of completion networks without requiring retraining.
- Abstract(参考訳): 最近の点雲補完モデル(トランスフォーマーベース、デノイングベース、その他の最先端アプローチ)は、部分入力からグローバルに可視な形状を生成するが、局所的な幾何学的不整合を残していることが多い。
本稿では,事前学習点オートエンコーダの潜在空間で動作する強化学習(RL)改善フレームワークであるRL-AD-Netを提案する。
オートエンコーダは、完了をコンパクトグローバル特徴ベクトル(GFV)にエンコードし、RLエージェントによって選択的に調整され、幾何学的忠実性を改善する。
頑健性を確保するために、軽量な非パラメトリックのPointNNセレクタは、元の完備化とRL精製出力の両方の幾何的整合性を評価し、より良い再構成を維持する。
基礎的な真実が得られれば、Chamfer Distanceと幾何学的整合性メトリクスの両方が洗練を導く。
RLの非教師的かつダイナミックな性質は、非常に多様なカテゴリの収束を困難にしているため、訓練は各カテゴリごとに別々に行われる。
それでも、このフレームワークは将来の作業において、マルチカテゴリの洗練にまで拡張することができる。
ShapeNetCore-2048の実験では、ベースライン完了ネットワークはトレーニングスタイルの収穫において合理的に機能するが、ランダムな収穫シナリオで苦労することを示した。
対照的に、RL-AD-Netは両方の設定に一貫して改善を提供しており、RL誘導アンサンブルの改良の有効性を強調している。
このアプローチは軽量でモジュール的で、モデルに依存しないため、リトレーニングを必要とせず、広範囲の完了ネットワークに適用できる。
関連論文リスト
- DRL: Discriminative Representation Learning with Parallel Adapters for Class Incremental Learning [63.65467569295623]
本稿では,これらの課題に対処するための差別的表現学習(DRL)フレームワークを提案する。
逐次学習を効果的かつ効率的に行うために、DRLのネットワークはPTM上に構築される。
我々のDRLは、CIL時代を通して、他の最先端の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-14T03:19:15Z) - PoLi-RL: A Point-to-List Reinforcement Learning Framework for Conditional Semantic Textual Similarity [22.289473489488955]
本稿では,新しいポイントツーリスト強化学習フレームワークPoLi-RLを紹介する。
PoLi-RLは、基本的なスコアリング能力を確立するために、単純なポイントワイズでモデルを訓練する。
その後、ポイントワイド、ペアワイド、リストワイドの目的を組み合わせたハイブリッド報酬に移行し、微妙なセマンティックな区別を識別するモデルの能力を洗練させる。
公式のC-STSベンチマークでは、PoLi-RLは48.18のスピアマン相関係数を達成し、クロスエンコーダアーキテクチャのための新しいSOTAを確立した。
論文 参考訳(メタデータ) (2025-10-05T07:57:26Z) - Reinforcement Learning Fine-Tunes a Sparse Subnetwork in Large Language Models [0.0]
強化学習(Reinforcement Learning, RL)の微調整では、モデルのパラメータの大部分を更新する必要があると仮定されることが多い。
我々はこの現象をRLにより引き起こされるパラメータ更新空間と呼ぶ。
このスパースサブネットワークのみを微調整することで、完全なモデル性能が回復し、完全に微調整されたモデルとほぼ同じパラメータが得られることを示す。
論文 参考訳(メタデータ) (2025-07-23T01:02:17Z) - Online Training and Pruning of Deep Reinforcement Learning Networks [0.0]
強化学習(RL)アルゴリズムのディープニューラルネットワーク(NN)のスケーリングは、特徴抽出ネットワークを使用する場合のパフォーマンスを向上させることが示されている。
先進RL法において,同時学習とプルーニングを併用する手法を提案する。
論文 参考訳(メタデータ) (2025-07-16T07:17:41Z) - Angles Don't Lie: Unlocking Training-Efficient RL Through the Model's Own Signals [49.17123504516502]
大規模言語モデル(LLM)のためのRFTパラダイムは、均一なデータサンプリングの下で同じクエリが冗長に露出するため、効率が悪い。
グラディエント駆動型アングルインフォームドナビゲーションRLフレームワークを提案する。
モデル固有の角度集中信号を利用することで、GAIN-RLは各エポックにおけるトレーニングデータを動的に選択し、一貫したインパクトのある勾配更新を確実にする。
論文 参考訳(メタデータ) (2025-06-02T21:40:38Z) - Scaling Offline RL via Efficient and Expressive Shortcut Models [13.050231036248338]
ノイズサンプリングプロセスの反復性のため, オフライン強化学習(RL)は依然として困難である。
本稿では、ショートカットモデルを利用してトレーニングと推論の両方をスケールする新しいオフラインRLアルゴリズムであるScalable Offline Reinforcement Learning (SORL)を紹介する。
我々は、SORLがオフラインのRLタスクにまたがって高い性能を達成し、テスト時間計算の増大とともに正のスケーリング挙動を示すことを示した。
論文 参考訳(メタデータ) (2025-05-28T20:59:22Z) - RAGEN: Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning [125.96848846966087]
対話型エージェントとしての大規模言語モデル(LLM)のトレーニングには,ユニークな課題がある。
強化学習は静的タスクの進行を可能にする一方で、マルチターンエージェントRLトレーニングは未探索のままである。
本稿では、軌道レベルのエージェントRLのための一般的なフレームワークであるStarPOを提案し、LLMエージェントのトレーニングと評価のためのモジュールシステムであるRAGENを紹介する。
論文 参考訳(メタデータ) (2025-04-24T17:57:08Z) - ODRL: A Benchmark for Off-Dynamics Reinforcement Learning [59.72217833812439]
我々は、オフダイナミックスRL法を評価するための最初のベンチマークであるODRLを紹介する。
ODRLには、4つの実験的な設定が含まれており、ソースドメインとターゲットドメインはオンラインまたはオフラインにすることができる。
我々は、様々な力学シフトにまたがる普遍的な優位性を持つ手法が存在しないことを示す広範なベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-10-28T05:29:38Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。