論文の概要: Decentralized Autofocusing System with Hierarchical Agents
- arxiv url: http://arxiv.org/abs/2108.12842v1
- Date: Sun, 29 Aug 2021 13:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:40:51.630548
- Title: Decentralized Autofocusing System with Hierarchical Agents
- Title(参考訳): 階層型エージェントを用いた分散オートフォーカスシステム
- Authors: Anna Anikina, Oleg Y. Rogov and Dmitry V. Dylov
- Abstract要約: 本稿では,カメラとレンズ焦点設定をインテリジェントに制御する階層型マルチエージェント深部強化学習手法を提案する。
このアルゴリズムはカメラのストリームの潜在表現に依存しており、カメラの全く参照しないチューニングを可能にする最初の方法である。
- 参考スコア(独自算出の注目度): 2.7716102039510564
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State-of-the-art object detection models are frequently trained offline using
available datasets, such as ImageNet: large and overly diverse data that are
unbalanced and hard to cluster semantically. This kind of training drops the
object detection performance should the change in illumination, in the
environmental conditions (e.g., rain), or in the lens positioning (out-of-focus
blur) occur. We propose a decentralized hierarchical multi-agent deep
reinforcement learning approach for intelligently controlling the camera and
the lens focusing settings, leading to significant improvement to the capacity
of the popular detection models (YOLO, Fast R-CNN, and Retina are considered).
The algorithm relies on the latent representation of the camera's stream and,
thus, it is the first method to allow a completely no-reference tuning of the
camera, where the system trains itself to auto-focus itself.
- Abstract(参考訳): 最先端のオブジェクト検出モデルは、ImageNetのような利用可能なデータセットを使用して、頻繁にオフラインでトレーニングされる。
このような訓練は、照明の変化、環境条件(雨など)、レンズ位置決め(焦点外ぼけなど)が生じた場合、物体検出性能を低下させる。
本稿では,カメラとレンズ焦点設定をインテリジェントに制御するための分散階層型多エージェント深層強化学習手法を提案し,一般的な検出モデル(yolo,fast r-cnn,retinaが検討されている)の能力を大幅に向上させる。
このアルゴリズムは、カメラのストリームの潜在表現に依存しており、システム自身がオートフォーカス自体を訓練する、カメラの完全に非参照チューニングを可能にする最初の方法である。
関連論文リスト
- VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Aberration-Aware Depth-from-Focus [20.956132508261664]
焦点スタックにおける最良焦点フレームの決定に影響を及ぼすオフ軸収差による領域ギャップについて検討する。
次に、収差認識トレーニング(AAT)を通じて、この領域ギャップをブリッジすることを検討する。
我々のアプローチは、異なる位置でレンズ収差をモデル化し、フォーカス距離をモデル化する軽量ネットワークで、従来のネットワークトレーニングパイプラインに統合される。
論文 参考訳(メタデータ) (2023-03-08T15:21:33Z) - A Novel Hierarchical-Classification-Block Based Convolutional Neural
Network for Source Camera Model Identification [0.5482532589225552]
異なるカメラブランドは、異なる固有の処理ノイズを残し、カメラブランドを特定するために使用できる。
1つの顕著な解決策は、伝統的な単一分類法ではなく階層的な分類システムを利用することである。
本稿では,ソースカメラモデル分類のためのネットワークレベルではなく,分類器ブロックレベルの階層システムを提案する。
論文 参考訳(メタデータ) (2022-12-08T09:28:51Z) - Camera Alignment and Weighted Contrastive Learning for Domain Adaptation
in Video Person ReID [17.90248359024435]
人物再識別システム(ReID)は、大規模な完全ラベル画像データセットでトレーニングした場合、高い精度を達成することができる。
様々な運用状況(例えば、カメラの視点や照明など)に関連したドメインシフトは、パフォーマンスの大幅な低下に繋がる可能性がある。
本稿では、ビデオベースのReIDのための教師なしドメイン適応(UDA)に焦点を当てる。
論文 参考訳(メタデータ) (2022-11-07T15:32:56Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Learning to Estimate Kernel Scale and Orientation of Defocus Blur with
Asymmetric Coded Aperture [19.472377706422474]
一貫したインフォーカス入力画像は、動的環境を知覚する機械ビジョンシステムにとって不可欠な前提条件です。
デフォーカスブラーは視覚システムの性能を著しく低下させる。
デフォーカスボケのカーネルスケールと向きを推定し、レンズフォーカスを素早く調整するディープラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-10T03:12:15Z) - ClusterVO: Clustering Moving Instances and Estimating Visual Odometry
for Self and Surroundings [54.33327082243022]
ClusterVOはステレオビジュアルオドメトリーで、エゴと周囲の固いクラスタ/オブジェクトの両方の動きを同時にクラスタし、推定する。
以前のソリューションでは、バッチ入力やシーン構造や動的オブジェクトモデルへの事前の指示に頼っていたが、ClusterVOは一般的にオンラインであり、屋内のシーン理解や自律運転など、さまざまなシナリオで使用することができる。
論文 参考訳(メタデータ) (2020-03-29T09:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。