論文の概要: Physics vs. Learned Priors: Rethinking Camera and Algorithm Design for
Task-Specific Imaging
- arxiv url: http://arxiv.org/abs/2204.09871v1
- Date: Thu, 21 Apr 2022 04:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 23:37:48.740941
- Title: Physics vs. Learned Priors: Rethinking Camera and Algorithm Design for
Task-Specific Imaging
- Title(参考訳): 物理と学習前科:課題特異的イメージングのためのカメラ再考とアルゴリズム設計
- Authors: Tzofi Klinghoffer, Siddharth Somasundaram, Kushagra Tiwary, Ramesh
Raskar
- Abstract要約: 物理とデータの両方を利用する手法が、画像やコンピュータビジョンにおいてどのように普及してきたかを示す。
私たちは、エンドツーエンドの設計の進歩に対する現在の障壁を共有し、これらの障壁をどのように克服できるかを仮説を立てています。
- 参考スコア(独自算出の注目度): 10.322538648429632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cameras were originally designed using physics-based heuristics to capture
aesthetic images. In recent years, there has been a transformation in camera
design from being purely physics-driven to increasingly data-driven and
task-specific. In this paper, we present a framework to understand the building
blocks of this nascent field of end-to-end design of camera hardware and
algorithms. As part of this framework, we show how methods that exploit both
physics and data have become prevalent in imaging and computer vision,
underscoring a key trend that will continue to dominate the future of
task-specific camera design. Finally, we share current barriers to progress in
end-to-end design, and hypothesize how these barriers can be overcome.
- Abstract(参考訳): カメラは元々、物理に基づくヒューリスティックを使って美的イメージをキャプチャするために設計された。
近年、カメラデザインは純粋に物理駆動からデータ駆動とタスク固有のものへと変化してきた。
本稿では,カメラハードウェアとアルゴリズムのエンド・ツー・エンド設計の新たな分野の構成要素を理解するためのフレームワークを提案する。
このフレームワークの一部として、物理とデータの両方を利用する手法が、画像やコンピュータビジョンにおいてどのように普及し、タスク固有のカメラ設計の将来を左右する重要なトレンドを浮き彫りにしてきたかを示す。
最後に、エンドツーエンド設計の進歩に対する現在の障壁を共有し、これらの障壁をどのように克服できるかを仮定します。
関連論文リスト
- Visual Representation Learning with Stochastic Frame Prediction [90.99577838303297]
本稿では,フレーム予測における不確実性を捉えることを学ぶ映像生成の考え方を再考する。
フレーム間の時間情報を学習するためのフレーム予測モデルを訓練するフレームワークを設計する。
このアーキテクチャは、両目的を相乗的かつ計算効率のよい方法で組み合わせることができる。
論文 参考訳(メタデータ) (2024-06-11T16:05:15Z) - Many-time physics in practice: characterising and controlling non-Markovian quantum stochastic processes [0.0]
プロセステンソルトモグラフィ(PTT)という,量子プロセストモグラフィの一般化について述べる。
PTTは、厳密かつ体系的に非マルコフ的オープン量子システムを構築する能力を確立する。
我々は、実験設計、後処理アルゴリズム、シミュレーションおよび短期デバイスデモを含むPTTのフレームワークを開発する。
論文 参考訳(メタデータ) (2024-05-08T20:34:53Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - VASE: Object-Centric Appearance and Shape Manipulation of Real Videos [108.60416277357712]
本研究では,オブジェクトの外観と,特にオブジェクトの精密かつ明示的な構造的変更を実行するために設計された,オブジェクト中心のフレームワークを紹介する。
我々は,事前学習した画像条件拡散モデル上にフレームワークを構築し,時間次元を扱うためのレイヤを統合するとともに,形状制御を実現するためのトレーニング戦略とアーキテクチャ修正を提案する。
我々は,画像駆動映像編集タスクにおいて,最先端技術に類似した性能を示し,新しい形状編集機能を示す手法について検討した。
論文 参考訳(メタデータ) (2024-01-04T18:59:24Z) - Self-supervised Interest Point Detection and Description for Fisheye and
Perspective Images [7.451395029642832]
キーポイント検出とマッチングは多くのコンピュータビジョンにおける基本的な課題である。
本研究では,画像取得に使用されるカメラの形状が原因で発生する場合に焦点をあてる。
我々は最先端のアプローチを構築し、関心点検出器と記述子ネットワークのトレーニングを可能にする自己監督的な手順を導出する。
論文 参考訳(メタデータ) (2023-06-02T22:39:33Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。