論文の概要: GraspALL: Adaptive Structural Compensation from Illumination Variation for Robotic Garment Grasping in Any Low-Light Conditions
- arxiv url: http://arxiv.org/abs/2603.14789v1
- Date: Mon, 16 Mar 2026 03:38:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.84424
- Title: GraspALL: Adaptive Structural Compensation from Illumination Variation for Robotic Garment Grasping in Any Low-Light Conditions
- Title(参考訳): GraspALL: 任意の低照度条件下でのロボットガーメントグレーピングにおける照度変化からの適応的構造補償
- Authors: Haifeng Zhong, Wenshuo Han, Zhouyu Wang, Runyang Feng, Fan Tang, Tong-Yee Lee, Zipei Fan, Ruihai Wu, Yuran Wang, Hao Dong, Hechang Chen, Hyung Jin Chang, Yixing Gao,
- Abstract要約: 低照度シーンにおける照明の低減は、衣服の構造的特徴を著しく劣化させ、ロバストさの獲得に大きな低下をもたらした。
既存の手法は、非RGBモダリティの照明不変性を利用して、RGBの特徴を高めるのが一般的である。
照明構造を考慮した対話型補償モデルGraspALLを提案する。
自作の衣服把握データセットの実験では、多様な照明条件下では、ベースラインよりも32-44%グリップ精度が向上することが示されている。
- 参考スコア(独自算出の注目度): 55.86392310651848
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Achieving accurate garment grasping under dynamically changing illumination is crucial for all-day operation of service robots.However, the reduced illumination in low-light scenes severely degrades garment structural features, leading to a significant drop in grasping robustness.Existing methods typically enhance RGB features by exploiting the illumination-invariant properties of non-RGB modalities, yet they overlook the varying dependence on non-RGB features under varying lighting conditions, which can introduce misaligned non-RGB cues and thereby weaken the model's adaptability to illumination changes when utilizing multimodal information.To address this problem, we propose GraspALL, an illumination-structure interactive compensation model.The innovation of GraspALL lies in encoding continuous illumination changes into quantitative references to guide adaptive feature fusion between RGB and non-RGB modalities according to varying lighting intensities, thereby generating illumination-consistent grasping representations.Experiments on the self-built garment grasping dataset demonstrate that GraspALL improves grasping accuracy by 32-44% over baselines under diverse illumination conditions.
- Abstract(参考訳): 動的に変化する照明下での正確な衣服の把握は、サービスロボットの日常的な作業において不可欠である。しかし、低照度環境における照明の低減は、衣服の構造的特徴を著しく劣化させ、ロバスト性を著しく低下させる。既存の手法では、RGBモードの照明不変性を利用してRGB機能を向上するが、異なる照明条件下でのRGB機能の違いを見越して、非RGBキューを導入し、マルチモーダル情報を利用する際の照明変更に対するモデルの適応性を弱めることができる。この問題に対処するために、GraspALLは、RGBモード間の適応的参照とRGBモード間の適応的参照を連続的に符号化し、RGBモードの適応的参照に適応させる。
関連論文リスト
- Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis [73.27997579020233]
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
論文 参考訳(メタデータ) (2026-02-20T16:20:50Z) - GLOW: Global Illumination-Aware Inverse Rendering of Indoor Scenes Captured with Dynamic Co-Located Light & Camera [18.90141473604964]
室内シーンの逆レンダリングは、反射率と照明のあいまいさのため、依然として困難である。
GLOWは、これらの課題に対処するために設計された、Global Illumination-aware Inverse Renderingフレームワークである。
論文 参考訳(メタデータ) (2025-11-28T03:24:12Z) - LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement [65.06462316546806]
低照度画像強調は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多い。
低照度向上のための量子化・適応型特徴学習を実現する新しいフレームワークLightQANetを提案する。
論文 参考訳(メタデータ) (2025-10-16T14:54:42Z) - SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - Luminance-GS: Adapting 3D Gaussian Splatting to Challenging Lighting Conditions with View-Adaptive Curve Adjustment [46.60106452798745]
3DGSを用いた照明条件下での高品質な新規ビュー合成を実現するための新しいアプローチであるLuminance-GSを紹介する。
ビューごとのカラーマトリクスマッピングとビュー適応曲線調整を採用することで、Luminance-GSは様々な照明条件でSOTA(State-of-the-art)結果を達成する。
以前のNeRFおよび3DGSベースのベースラインと比較して、Luminance-GSは再現性を改善したリアルタイムレンダリング速度を提供する。
論文 参考訳(メタデータ) (2025-04-02T08:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。