論文の概要: A deep Q-learning method for optimizing visual search strategies in
backgrounds of dynamic noise
- arxiv url: http://arxiv.org/abs/2201.12385v1
- Date: Fri, 28 Jan 2022 19:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 14:36:51.587011
- Title: A deep Q-learning method for optimizing visual search strategies in
backgrounds of dynamic noise
- Title(参考訳): 動的雑音の背景における視覚探索戦略の最適化のための深部q学習法
- Authors: Weimin Zhou, Miguel P. Eckstein
- Abstract要約: タスク関連情報の完全な知識を利用する理想的な探索者(IS)は、視線移動戦略を最適化する。
ISは、人間の眼球運動の最適性を評価する重要なツールとして用いられる。
多様なタスクに対する最適ポリシーを得るためにうまく適用された現代の強化学習法は、背景生成関数の完全な知識を必要としない。
- 参考スコア(独自算出の注目度): 10.88384247342554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans process visual information with varying resolution (foveated visual
system) and explore images by orienting through eye movements the
high-resolution fovea to points of interest. The Bayesian ideal searcher (IS)
that employs complete knowledge of task-relevant information optimizes eye
movement strategy and achieves the optimal search performance. The IS can be
employed as an important tool to evaluate the optimality of human eye
movements, and potentially provide guidance to improve human observer visual
search strategies. Najemnik and Geisler (2005) derived an IS for backgrounds of
spatial 1/f noise. The corresponding template responses follow Gaussian
distributions and the optimal search strategy can be analytically determined.
However, the computation of the IS can be intractable when considering more
realistic and complex backgrounds such as medical images. Modern reinforcement
learning methods, successfully applied to obtain optimal policy for a variety
of tasks, do not require complete knowledge of the background generating
functions and can be potentially applied to anatomical backgrounds. An
important first step is to validate the optimality of the reinforcement
learning method. In this study, we investigate the ability of a reinforcement
learning method that employs Q-network to approximate the IS. We demonstrate
that the search strategy corresponding to the Q-network is consistent with the
IS search strategy. The findings show the potential of the reinforcement
learning with Q-network approach to estimate optimal eye movement planning with
real anatomical backgrounds.
- Abstract(参考訳): 人間は様々な解像度で視覚情報を処理し(探索された視覚システム)、目の動きを通して高解像度の焦点を興味のある点に向けて画像を探索する。
タスク関連情報の完全な知識を用いるベイズ理想探索器(is)は、眼球運動戦略を最適化し、最適な探索性能を達成する。
ISは、人間の眼球運動の最適性を評価する重要なツールとして利用でき、人間の視線探索戦略を改善するためのガイダンスを提供する可能性がある。
Najemnik と Geisler (2005) は空間的 1/f ノイズの背景に対する IS を導出した。
対応するテンプレート応答はガウス分布に従い、最適な探索戦略を解析的に決定することができる。
しかし、医療画像のようなより現実的で複雑な背景を考えると、ISの計算は難解である。
現代の強化学習法は、様々なタスクに対して最適なポリシーを得るためにうまく適用され、背景生成関数の完全な知識を必要とせず、解剖学的背景に適用することができる。
重要な第一歩は強化学習法の最適性を検証することである。
本研究では, isを近似するqネットワークを用いた強化学習手法について検討する。
本稿では,qネットワークに対応する検索戦略がis検索戦略と一致することを示す。
本研究は,実解剖学的背景を用いた最適眼球運動計画推定のためのq-networkアプローチによる強化学習の可能性を示す。
関連論文リスト
- Low-Light Enhancement Effect on Classification and Detection: An Empirical Study [48.6762437869172]
我々は,低照度画像強調法(LLIE)が高レベル視覚タスクに与える影響を評価する。
本研究は,人間の視覚知覚における画像強調と,機械解析における切り離しを示唆するものである。
この洞察は、人間と機械の視覚の両方のニーズに合致するLLIE技術の開発に不可欠である。
論文 参考訳(メタデータ) (2024-09-22T14:21:31Z) - Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - Advancements in Content-Based Image Retrieval: A Comprehensive Survey of
Relevance Feedback Techniques [0.0]
コンテントベース画像検索(CBIR)システムはコンピュータビジョンの分野で重要なツールとして登場してきた。
本稿では,対象検出におけるCBIRの役割と,コンテンツ特徴に基づく視覚的に類似した画像の識別と検索の可能性について,包括的に概説する。
低レベルの特徴と高レベルのセマンティック概念の相違から生じるセマンティックギャップについて詳述し、このギャップを橋渡しするためのアプローチを探る。
論文 参考訳(メタデータ) (2023-12-13T11:07:32Z) - Meta-Learning Strategies through Value Maximization in Neural Networks [7.285835869818669]
完全に規範的な目的に対して制御信号を効率よく最適化できる学習活動フレームワークを提案する。
本稿では,一般的なメタ学習アルゴリズムにおける近似の影響について検討する。
設定全体では、学習の早い段階でタスクの容易な側面に適用する場合、制御の取り組みが最も有益であることが分かります。
論文 参考訳(メタデータ) (2023-10-30T18:29:26Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Optimal foraging strategies can be learned [0.0]
我々は、強化学習フレームワークによる最適な採餌戦略を探究する。
まず, 強化学習モデルにおける報酬の最大化が, 捕食効率の最適化と等価であることを理論的に証明する。
次に,非破壊探索のパラダイムモデルを用いて,L'evy walk などのよく知られた戦略の効率を向上する捕食戦略を学ぶ数値実験を行った。
論文 参考訳(メタデータ) (2023-03-10T16:40:12Z) - A Comprehensive Survey of Image Augmentation Techniques for Deep
Learning [0.0]
ディープラーニングは、大量の画像を必要とするコンピュータビジョンにおいて、まともなパフォーマンスを実現している。
この問題を緩和するために、多くの画像拡張アルゴリズムが効率的かつ効率的な戦略として提案されている。
本稿では,深層学習のための画像拡張に関する包括的調査を行い,新しい情報的分類法を提案する。
論文 参考訳(メタデータ) (2022-05-03T13:45:04Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - The Information Geometry of Unsupervised Reinforcement Learning [133.20816939521941]
教師なしスキル発見(英語: Unsupervised skill discovery)とは、報酬関数にアクセスせずに一連のポリシーを学ぶアルゴリズムのクラスである。
教師なしのスキル発見アルゴリズムは、あらゆる報酬関数に最適なスキルを学習しないことを示す。
論文 参考訳(メタデータ) (2021-10-06T13:08:36Z) - Inverse Bayesian Optimization: Learning Human Search Strategies in a
Sequential Optimization Task [0.10499611180329801]
本稿では,ベイズ最適化の逆問題について考察する。
観察された探索経路に基づいてエージェントの潜時獲得関数を推定する。
実験から人間の行動を解析し,その方法を説明する。
論文 参考訳(メタデータ) (2021-04-16T15:40:34Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。