論文の概要: D\'etection de petites cibles par apprentissage profond et crit\`ere a
contrario
- arxiv url: http://arxiv.org/abs/2210.00755v1
- Date: Mon, 3 Oct 2022 08:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:43:23.159820
- Title: D\'etection de petites cibles par apprentissage profond et crit\`ere a
contrario
- Title(参考訳): D'etection de petites cibles par apprentissage profond et crit\`ere a contrario
- Authors: Alina Ciocarlan, Sylvie Le Hegarat-Mascle, Sidonie Lefebvre, Clara
Barbanson
- Abstract要約: 小型目標検出は、防衛用途において不可欠だが困難な課題である。
本稿では,チャネルアテンションを含むTransUnetのカスタマイズ版を提案する。
そこで我々は,弱い深層学習訓練によって検出された有意な潜在的標的を選択するために,コントラリオ法を探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small target detection is an essential yet challenging task in defense
applications, since differentiating low-contrast targets from natural textured
and noisy environment remains difficult. To better take into account the
contextual information, we propose to explore deep learning approaches based on
attention mechanisms. Specifically, we propose a customized version of
TransUnet including channel attention, which has shown a significant
improvement in performance. Moreover, the lack of annotated data induces weak
detection precision, leading to many false alarms. We thus explore a contrario
methods in order to select meaningful potential targets detected by a weak deep
learning training.
--
La d\'etection de petites cibles est une probl\'ematique d\'elicate mais
essentielle dans le domaine de la d\'efense, notamment lorsqu'il s'agit de
diff\'erencier ces cibles d'un fond bruit\'e ou textur\'e, ou lorsqu'elles sont
de faible contraste. Pour mieux prendre en compte les informations
contextuelles, nous proposons d'explorer diff\'erentes approches de
segmentation par apprentissage profond, dont certaines bas\'ees sur les
m\'ecanismes d'attention. Nous proposons \'egalement d'inclure un module
d'attention par canal au TransUnet, r\'eseau \`a l'\'etat de l'art, ce qui
permet d'am\'eliorer significativement les performances. Par ailleurs, le
manque de donn\'ees annot\'ees induit une perte en pr\'ecision lors des
d\'etections, conduisant \`a de nombreuses fausses alarmes non pertinentes.
Nous explorons donc des m\'ethodes a contrario afin de s\'electionner les
cibles les plus significatives d\'etect\'ees par un r\'eseau entra\^in\'e avec
peu de donn\'ees.
- Abstract(参考訳): 低コントラストターゲットと自然なテクスチャやノイズの多い環境との区別が難しいため、小さなターゲット検出は防衛用途において必須だが困難なタスクである。
文脈情報を考慮して,注意機構に基づく深層学習手法を検討する。
具体的には,チャネルアテンションを含むTransUnetのカスタマイズ版を提案する。
さらに、注釈付きデータの欠如は弱い検出精度をもたらし、多くの誤報を引き起こす。
そこで我々は,弱い深層学習で検出される有意義なターゲットを選定するために,対向法を検討する。
a b cibles est une probl\'ematique d''elicate mais essentielle dans le domaine de la d'efense, notamment lorsqu'il s'agit de diff\'erencier ces cibles d'un fond bruit\'e ou textur\'e, ou lorsqu'elles sont de faible contraste
Pour mieux prendre en compte les informations contextuelles, nous proposons d'explorer diff\'erentes approches de segmentation par apprentissage profond, dont certaines bas\'ees sur les m'ecanismes d'attention。
Nous proposons \'egalement d'inclure un module d'attention par canal au TransUnet, r\'eseau \`a l'\etat de l'art, ce qui permet d'am\'eliorer significativement les performances
par ailleurs, le manque de donn\'ees annot\'ees induit une perte en pr\'ecision lors des d\'etections, conduisant \`a de nombreuses faussesは無関係を警告する。
Nous explorons donc des m\'ethodes a contrario afin de s\'electionner les cibles les plus significatives d''etect\'ees par un r\'eseau entra\^in\e avec peu de donn'ees。
関連論文リスト
- 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Towards End-to-End Unsupervised Saliency Detection with Self-Supervised
Top-Down Context [25.85453873366275]
トップダウンコンテキストを介し、自己教師付きエンドツーエンドの有能なオブジェクト検出フレームワークを提案する。
最も深い特徴から自己ローカライゼーションを生かして位置マップを構築し,最も指導的なセグメンテーション指導を学習する。
提案手法は,近年のエンド・ツー・エンド手法と,多段階ソリューションの大部分において,先行的な性能を実現する。
論文 参考訳(メタデータ) (2023-10-14T08:43:22Z) - Few-Shot Stance Detection via Target-Aware Prompt Distillation [48.40269795901453]
本論文は,知識ベースや少人数の学習者を対象とした事前学習型言語モデル(PLM)の可能性に着想を得たものである。
PLMは、ターゲットに対して重要なコンテキスト情報を提供し、プロンプトを介して数発の学習を可能にする。
姿勢検出タスクにおいて,対象が重要な役割を担っていることを考慮し,目標認識プロンプトを設計し,新しい言語化手法を提案する。
論文 参考訳(メタデータ) (2022-06-27T12:04:14Z) - Learning to Censor by Noisy Sampling [17.06138741660826]
この作業は、ポイントクラウドから学ぶ際の機密情報を保護する。
我々は、属性漏洩攻撃を軽減しつつ、認識タスクのためのユーティリティの保存に重点を置いている。
重要なモチベーションは、ポイントクラウド上の知覚タスクの局所的な正当性を活用して、優れたプライバシユーティリティトレードオフを提供することである。
論文 参考訳(メタデータ) (2022-03-23T04:50:50Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Improving Robot Localisation by Ignoring Visual Distraction [34.8860186009308]
我々はニューラル・ブラインドネスを導入し、エージェントは邪魔者と見なされるオブジェクトやクラスを完全に無視することができる。
より明確に言えば、ニューラルネットワークが潜在空間内で特定の選択されたクラスを表現できないようにすることを目指している。
非常に現実的な意味で、これはネットワークを特定のクラスに"盲目"させ、与えられたタスクにとって重要なものに集中させ、それがローカライゼーションを改善するためにどのように使用できるかを実証する。
論文 参考訳(メタデータ) (2021-07-25T17:45:17Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Neuroevolution of Self-Interpretable Agents [11.171154483167514]
不注意の盲目は、普通の視界で物事を見逃す心理的現象である。
選択的な注意を払って,自己注意ボトルネックのレンズを通して世界を知覚する人工エージェントの特性について検討した。
論文 参考訳(メタデータ) (2020-03-18T11:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。