論文の概要: Adaptive Camera Sensor for Vision Models
- arxiv url: http://arxiv.org/abs/2503.02170v1
- Date: Tue, 04 Mar 2025 01:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:24:03.690570
- Title: Adaptive Camera Sensor for Vision Models
- Title(参考訳): 視覚モデルのための適応型カメラセンサ
- Authors: Eunsu Baek, Sunghwan Han, Taesik Gong, Hyung-Sin Kim,
- Abstract要約: Lensは、モデルの観点から高品質な画像をキャプチャすることで、モデル性能を向上させる新しいカメラセンサ制御方法である。
LensのコアとなるVisiTは、トレーニング不要で、モデル固有の品質指標で、テスト時に個々の未ラベルのサンプルを評価する。
Lensを検証するために、様々なセンサと照明条件から自然摂動をキャプチャする新しいベンチマークデータセットであるImageNet-ES Diverseを紹介する。
- 参考スコア(独自算出の注目度): 4.566795168995489
- License:
- Abstract: Domain shift remains a persistent challenge in deep-learning-based computer vision, often requiring extensive model modifications or large labeled datasets to address. Inspired by human visual perception, which adjusts input quality through corrective lenses rather than over-training the brain, we propose Lens, a novel camera sensor control method that enhances model performance by capturing high-quality images from the model's perspective rather than relying on traditional human-centric sensor control. Lens is lightweight and adapts sensor parameters to specific models and scenes in real-time. At its core, Lens utilizes VisiT, a training-free, model-specific quality indicator that evaluates individual unlabeled samples at test time using confidence scores without additional adaptation costs. To validate Lens, we introduce ImageNet-ES Diverse, a new benchmark dataset capturing natural perturbations from varying sensor and lighting conditions. Extensive experiments on both ImageNet-ES and our new ImageNet-ES Diverse show that Lens significantly improves model accuracy across various baseline schemes for sensor control and model modification while maintaining low latency in image captures. Lens effectively compensates for large model size differences and integrates synergistically with model improvement techniques. Our code and dataset are available at github.com/Edw2n/Lens.git.
- Abstract(参考訳): ドメインシフトはディープラーニングベースのコンピュータビジョンにおける永続的な課題であり、モデル修正や大きなラベル付きデータセットに対処する必要があることが多い。
人間の視覚に触発され、脳の過度なトレーニングではなく、補正レンズによって入力品質を調整し、従来の人中心センサー制御に頼るのではなく、モデルの観点から高品質な画像をキャプチャすることで、モデル性能を向上させる新しいカメラセンサ制御法であるLensを提案する。
Lensは軽量で、センサーパラメータを特定のモデルやシーンにリアルタイムで適応させる。
LensのコアとなるVisiTは、トレーニング不要でモデル固有の品質指標で、追加の適応コストなしで信頼性スコアを使用して、テスト時に個々のラベルのないサンプルを評価する。
Lensを検証するために、様々なセンサと照明条件から自然摂動をキャプチャする新しいベンチマークデータセットであるImageNet-ES Diverseを紹介する。
ImageNet-ESと新しいImageNet-ES Diverseの2つの実験により、Lensはイメージキャプチャの低レイテンシを維持しながら、センサー制御とモデル修正のための様々なベースラインスキームにおけるモデルの精度を著しく向上することが示された。
レンズは、大きなモデルサイズの違いを効果的に補償し、モデル改善技術と相乗的に統合する。
コードとデータセットはgithub.com/Edw2n/Lens.gitで公開しています。
関連論文リスト
- Deep-BrownConrady: Prediction of Camera Calibration and Distortion Parameters Using Deep Learning and Synthetic Data [11.540349678846937]
本研究では,単一画像からのカメラキャリブレーションと歪みパラメータ予測の課題に対処する。
実画像と合成画像の混合に基づいて訓練されたディープラーニングモデルは、単一の画像からカメラとレンズのパラメータを正確に予測することができる。
論文 参考訳(メタデータ) (2025-01-24T14:12:04Z) - Explorations in Self-Supervised Learning: Dataset Composition Testing for Object Classification [0.0]
対象分類のための自己教師付き学習(SSL)モデルの性能に及ぼす画像特性の異なるデータセットを用いたサンプリングと事前学習の影響について検討する。
低解像度画像では深度事前学習モデルの方が有効であるのに対し、RGB事前学習モデルは高解像度画像ではより優れていた。
論文 参考訳(メタデータ) (2024-12-01T11:21:01Z) - MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - DarSwin-Unet: Distortion Aware Encoder-Decoder Architecture [13.412728770638465]
広角レンズの歪みに適応するエンコーダデコーダモデルを提案する。
分類タスクのみを実行するオリジナルのモデルとは対照的に,画素レベルのタスク用に設計されたU-NetアーキテクチャDarSwin-Unetを導入する。
提案手法により,広角魚眼画像における画素レベルのタスクを処理できるモデル能力が向上し,実世界への応用がより効果的になる。
論文 参考訳(メタデータ) (2024-07-24T14:52:18Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - An Ensemble Model for Distorted Images in Real Scenarios [0.0]
本稿では,オブジェクト検出器YOLOv7を用いてCDCOCOデータセットから歪み画像を検出する。
慎重に設計した最適化により,CDCOCOテストセット上での優れた性能を実現する。
我々のデノナイジング検出モデルは、歪んだ画像をデノナイズし、修復することができるため、様々な現実のシナリオや環境において有用である。
論文 参考訳(メタデータ) (2023-09-26T15:12:55Z) - Neural Lens Modeling [50.57409162437732]
NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
論文 参考訳(メタデータ) (2023-04-10T20:09:17Z) - Advancing Plain Vision Transformer Towards Remote Sensing Foundation
Model [97.9548609175831]
約1億のパラメータを持つプレーンビジョントランスフォーマーを利用して、リモートセンシングタスク用にカスタマイズされた大規模なビジョンモデルを提案する。
具体的には、RS画像における大きな画像サイズと様々な向きのオブジェクトを扱うために、回転する様々なウィンドウアテンションを提案する。
検出タスクの実験は、DOTA-V1.0データセット上で81.16%のmAPを達成したすべての最先端モデルよりも、我々のモデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-08-08T09:08:40Z) - Unrolled Primal-Dual Networks for Lensless Cameras [0.45880283710344055]
教師付き原始二重再構成法を学習することで,文献における画像品質の整合性が得られることを示す。
この改善は、学習可能な前方モデルと随伴モデルとを学習された原始双対最適化フレームワークに組み込むことで、再構成画像の品質を向上できるという発見に起因している。
論文 参考訳(メタデータ) (2022-03-08T19:21:39Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。