論文の概要: Image Quality Is Not All You Want: Task-Driven Lens Design for Image
Classification
- arxiv url: http://arxiv.org/abs/2305.17185v1
- Date: Fri, 26 May 2023 18:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 21:33:11.646445
- Title: Image Quality Is Not All You Want: Task-Driven Lens Design for Image
Classification
- Title(参考訳): 画像分類のためのタスク駆動型レンズデザインは、画質だけじゃない
- Authors: Xinge Yang, Qiang Fu, Yunfeng Nie, Wolfgang Heidrich
- Abstract要約: 設計した画像分類レンズ(TaskLens'')は従来の画像駆動型レンズよりも精度が高いことを示した。
本稿では,特に物理的次元やコストが厳しく制約された場合に,TaskLensが大きなポテンシャルを持つことを示す。
- 参考スコア(独自算出の注目度): 20.956132508261664
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In computer vision, it has long been taken for granted that high-quality
images obtained through well-designed camera lenses would lead to superior
results. However, we find that this common perception is not a
"one-size-fits-all" solution for diverse computer vision tasks. We demonstrate
that task-driven and deep-learned simple optics can actually deliver better
visual task performance. The Task-Driven lens design approach, which relies
solely on a well-trained network model for supervision, is proven to be capable
of designing lenses from scratch. Experimental results demonstrate the designed
image classification lens (``TaskLens'') exhibits higher accuracy compared to
conventional imaging-driven lenses, even with fewer lens elements. Furthermore,
we show that our TaskLens is compatible with various network models while
maintaining enhanced classification accuracy. We propose that TaskLens holds
significant potential, particularly when physical dimensions and cost are
severely constrained.
- Abstract(参考訳): コンピュータビジョンでは、高度に設計されたカメラレンズで得られる高品質の画像が優れた結果をもたらすのは当然のことです。
しかし、この共通認識は、多様なコンピュータビジョンタスクに対する「すべてにフィットする」ソリューションではない。
我々は、タスク駆動で深く学習された単純な光学が、より優れたビジュアルなタスクパフォーマンスを提供できることを実証する。
Task-Driven Lensデザインアプローチは、よく訓練されたネットワークモデルにのみ依存しており、スクラッチからレンズを設計できることが証明されている。
実験により、従来の撮像駆動レンズと比較して、レンズ要素が少なくても高い精度を示す画像分類レンズ(`tasklens'')が得られた。
さらに,分類精度の向上を保ちつつ,様々なネットワークモデルと互換性があることを示す。
本稿では,特に物理的次元やコストが厳しく制約された場合に,TaskLensが大きなポテンシャルを持つことを示す。
関連論文リスト
- Combined CNN and ViT features off-the-shelf: Another astounding baseline for recognition [49.14350399025926]
本稿では,ImageNet Large Scale Visual Recognition Challengeのために開発された事前学習型アーキテクチャを,近視認識に適用する。
CNNとViTの中間層の特徴は、近視画像に基づいて個人を認識するのに適した方法である。
論文 参考訳(メタデータ) (2024-07-28T11:52:36Z) - Solving Vision Tasks with Simple Photoreceptors Instead of Cameras [15.3197360053297]
視覚ナビゲーションや連続制御など,多くの課題を解くのに十分な光受容体はごくわずかであることを示す。
これらの単純な視覚センサの設計は,有用な情報提供能力において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-17T17:31:24Z) - Unifying Image Processing as Visual Prompting Question Answering [62.84955983910612]
画像処理はコンピュータビジョンの基本的な課題であり、画像の品質を高め、その後の視覚アプリケーションに不可欠な特徴を抽出することを目的としている。
伝統的に、タスク固有のモデルは個々のタスクのために開発され、そのようなモデルの設計には異なる専門知識が必要である。
本稿では,画像復元,画像強調,画像特徴抽出タスクを網羅する汎用画像処理モデルを提案する。
論文 参考訳(メタデータ) (2023-10-16T15:32:57Z) - Tuning computer vision models with task rewards [88.45787930908102]
モデル予測と意図された使用法とのミスは、コンピュータビジョンモデルの展開に有害である。
自然言語処理では、モデルとタスク報酬を整合させる強化学習技術を用いて、この問題に対処することが多い。
我々はこのアプローチを採用し、オブジェクト検出、汎視的セグメンテーション、着色、画像キャプションなど、複数のコンピュータビジョンタスクにまたがる驚くべき効果を示す。
論文 参考訳(メタデータ) (2023-02-16T11:49:48Z) - The Differentiable Lens: Compound Lens Search over Glass Surfaces and
Materials for Object Detection [42.00621716076439]
ほとんどのカメラレンズシステムは、下流のコンピュータ手法とは独立して設計されている。
本稿では,レンズ設計の課題に対処する最適化手法を提案する。
具体的には,ガラス材料のエンド・ツー・エンドコンテキストでの最適化を容易にするために,定量化ガラス変数を導入する。
論文 参考訳(メタデータ) (2022-12-08T18:01:17Z) - Images Speak in Images: A Generalist Painter for In-Context Visual
Learning [98.78475432114595]
コンテキスト内学習により、モデルはいくつかのプロンプトと例だけで、様々なタスクに迅速に適応できる。
汎用タスクをどのように定義すれば、ビジョンモデルがドメイン外のタスクを理解し、転送できるのかは不明だ。
我々は、コアビジョンタスクの出力をイメージとして再定義し、タスクプロンプトを画像として指定する汎用モデルであるPapererを提案する。
論文 参考訳(メタデータ) (2022-12-05T18:59:50Z) - Pro-tuning: Unified Prompt Tuning for Vision Tasks [133.12978197265596]
ファインチューニングは、トレーニング済みの視覚モデルを利用して下流タスクを実行するデファクトアプローチである。
本研究では,様々な下流視覚タスクに凍結視覚モデルを適用するために,パラメータ効率のよいプロンプトチューニング(Pro-tuning)を提案する。
論文 参考訳(メタデータ) (2022-07-28T21:09:31Z) - Learning to Resize Images for Computer Vision Tasks [15.381549764216134]
そこで本研究では,リニアリシライザを学習リシライザに置き換えることで,性能を大幅に向上できることを示す。
我々の学習画像復調器はベースライン視覚モデルで共同で訓練されている。
提案手法は,他の視覚タスクの分類ベースラインの微調整にも有用であることを示す。
論文 参考訳(メタデータ) (2021-03-17T23:43:44Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。