論文の概要: RL-CoSeg : A Novel Image Co-Segmentation Algorithm with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2204.05951v1
- Date: Tue, 12 Apr 2022 17:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:35:00.066187
- Title: RL-CoSeg : A Novel Image Co-Segmentation Algorithm with Deep
Reinforcement Learning
- Title(参考訳): RL-CoSeg : 深層強化学習を用いた画像合成アルゴリズム
- Authors: Xin Duan, Xiabi Liu, Xiaopeng Gong, Mengqiao Han
- Abstract要約: 本稿では、深部強化学習(RL)に基づく自動画像分割アルゴリズムを提案する。
我々の知る限りでは、これはRL法をコセグメンテーションに適用する最初の試みである。
実験結果から,提案手法は粗いセグメンテーションと細かなセグメンテーションの両方で効果的に性能を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 3.406611065493047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an automatic image co-segmentation algorithm based on
deep reinforcement learning (RL). Existing co-segmentation tasks mainly rely on
deep learning methods, and the obtained foreground edges are often rough. In
order to obtain more precise foreground edges, we use deep RL to solve this
problem and achieve the finer segmentation. To our best knowledge, this is the
first work to apply RL methods to co-segmentation. We define the problem as a
Markov Decision Process (MDP) and optimize it by RL with asynchronous advantage
actor-critic (A3C). The RL image co-segmentation network uses the correlation
between images to segment common and salient objects from a set of related
images. In order to achieve automatic segmentation, our RL-CoSeg method
eliminates user's hints. For the image co-segmentation problem, we propose a
collaborative RL algorithm based on the A3C model. We propose a Siamese RL
co-segmentation network structure to obtain the co-attention of images for
co-segmentation. We improve the self-attention for automatic RL algorithm to
obtain long-distance dependence and enlarge the receptive field. The image
feature information obtained by self-attention can be used to supplement the
deleted user's hints and help to obtain more accurate actions. Experimental
results have shown that our method can improve the performance effectively on
both coarse and fine initial segmentations, and it achieves the
state-of-the-art performance on Internet dataset, iCoseg dataset and MLMR-COS
dataset.
- Abstract(参考訳): 本稿では,深部強化学習(RL)に基づく自動画像分割アルゴリズムを提案する。
既存の協調作業は主にディープラーニング手法に依存しており、得られた前景の縁は粗いことが多い。
より精密な前景エッジを得るために、この問題を解くために深部RLを使用し、より微細なセグメンテーションを実現する。
我々の知る限りでは、これはRL法をコセグメンテーションに適用する最初の試みである。
我々は,この問題をマルコフ決定プロセス(MDP)として定義し,非同期アドバンテージアクタ批判(A3C)を用いてRLで最適化する。
RL画像コセグメンテーションネットワークは、画像間の相関を利用して、一連の関連画像から共通オブジェクトと有能オブジェクトを分割する。
自動セグメンテーションを実現するため,RL-CoSeg法はユーザのヒントを除去する。
画像分割問題に対して,A3Cモデルに基づく協調RLアルゴリズムを提案する。
本稿では, 画像のコアテンションを求めるために, シームズRLコセグメンテーションネットワーク構造を提案する。
自動RLアルゴリズムの自己アテンションを改善して、長距離依存を求め、受容場を拡大する。
セルフアテンションにより得られた画像特徴情報は、削除されたユーザのヒントを補完し、より正確なアクションを得るのに役立つ。
実験結果から,提案手法は粗さと細かな初期セグメンテーションの両方において効率よく性能を向上し,インターネットデータセット,iCosegデータセット,MLMR-COSデータセット上での最先端性能を実現することができることがわかった。
関連論文リスト
- Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation [27.59330408178435]
リモートセマンティックセマンティックセマンティックセマンティクスは、クエリイメージからターゲットオブジェクトをセグメントすることを学ぶことを目的としている。
本稿では,数発のリモートセンシング画像セマンティックセマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進させる。
論文 参考訳(メタデータ) (2023-09-11T21:53:34Z) - Deep Attention Unet: A Network Model with Global Feature Perception
Ability [12.087640144194246]
本稿では,チャネル自己注意機構と残差接続に基づく新しいタイプのUNet画像分割アルゴリズムを提案する。
私の実験では、新しいネットワークモデルは、FoodNetデータセット上の従来のUNetと比較して、mIOUを2.48%改善しました。
論文 参考訳(メタデータ) (2023-04-21T09:12:29Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - Realistic Image Normalization for Multi-Domain Segmentation [7.856339385917824]
本稿では,複数のデータセットにまたがる共通正規化関数を学習することで,従来の画像正規化手法を再検討する。
複数のデータセットを共同で正規化することにより、一貫した正規化イメージと改善されたイメージセグメンテーションが得られる。
また、複数の画像領域から学習する場合に利用可能なサンプル数を増やすことで、データの可用性を向上させることができる。
論文 参考訳(メタデータ) (2020-09-29T13:57:04Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。