論文の概要: The Information & Mutual Information Ratio for Counting Image Features
and Their Matches
- arxiv url: http://arxiv.org/abs/2005.06739v1
- Date: Thu, 14 May 2020 06:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:39:48.922101
- Title: The Information & Mutual Information Ratio for Counting Image Features
and Their Matches
- Title(参考訳): 画像特徴量とそのマッチングのための情報・相互情報比
- Authors: Ali Khajegili Mirabadi and Stefano Rini
- Abstract要約: 情報比 (IR) と相互情報比 (MIR) の2つの新しい画像特徴が提案されている。
IRは単一の画像の特徴であり、MIRは2つ以上の画像に共通する特徴を記述している。
これらの数値評価は、実用的なコンピュータビジョンタスクにおけるIRとMIRの関連性を検証する。
- 参考スコア(独自算出の注目度): 9.251773744318118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction and description is an important topic of computer vision,
as it is the starting point of a number of tasks such as image reconstruction,
stitching, registration, and recognition among many others. In this paper, two
new image features are proposed: the Information Ratio (IR) and the Mutual
Information Ratio (MIR). The IR is a feature of a single image, while the MIR
describes features common across two or more images.We begin by introducing the
IR and the MIR and motivate these features in an information theoretical
context as the ratio of the self-information of an intensity level over the
information contained over the pixels of the same intensity. Notably, the
relationship of the IR and MIR with the image entropy and mutual information,
classic information measures, are discussed. Finally, the effectiveness of
these features is tested through feature extraction over INRIA Copydays
datasets and feature matching over the Oxfords Affine Covariant Regions. These
numerical evaluations validate the relevance of the IR and MIR in practical
computer vision tasks
- Abstract(参考訳): 特徴抽出と記述は、画像再構成、ステッチ、登録、認識など多くのタスクの出発点となるため、コンピュータビジョンの重要なトピックである。
本稿では,情報比(IR)と相互情報比(MIR)の2つの新しい特徴について述べる。
IRは1つの画像の特徴であり、MIRは2つ以上の画像に共通する特徴を記述し、IRとMIRを導入し、これらの特徴を情報理論的文脈において、同じ強度の画素上に含まれる情報に対する強度レベルの自己情報の割合として動機付ける。
特に、IRとMIRと画像エントロピー、相互情報、古典情報測度との関係について論じる。
最後に、これらの機能の有効性は、INRIA Copydaysデータセット上の機能抽出と、Oxfords Affine Covariant Regions上の機能マッチングによってテストされる。
これらの数値評価は、実用的なコンピュータビジョンタスクにおけるIRとMIRの関係を検証している
関連論文リスト
- Sharing Key Semantics in Transformer Makes Efficient Image Restoration [148.22790334216117]
視覚変換器(ViT)の基盤となる自己注意機構は、意味的に無関係なオブジェクトや領域であっても、すべてのグローバルな手がかりを包含する傾向がある。
本稿では,Transformer for IR(すなわちSemanIR)を通じて重要なセマンティクスを共有することで,画像復元の性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:45:34Z) - iSEARLE: Improving Textual Inversion for Zero-Shot Composed Image Retrieval [26.101116761577796]
Composed Image Retrieval (CIR) は、相対キャプションに指定された変化を取り入れつつ、参照画像と視覚的に類似したターゲット画像を検索することを目的としている。
ラベル付きトレーニングデータセットを必要とせずにCIRに対処する新しいタスクであるZero-Shot CIR(ZS-CIR)を導入する。
CIRCOと呼ばれるオープンドメインベンチマークデータセットを提示し、各クエリに複数の基底真理とセマンティック分類をラベル付けする。
論文 参考訳(メタデータ) (2024-05-05T14:39:06Z) - SciMMIR: Benchmarking Scientific Multi-modal Information Retrieval [64.03631654052445]
科学領域内の画像テキストペアリングにおけるMMIR性能を評価するための最新のベンチマークは、顕著なギャップを示している。
オープンアクセス用紙コレクションを利用した特殊な科学的MMIRベンチマークを開発する。
このベンチマークは、科学的文書に詳細なキャプションのある数字や表から抽出された、530Kの精巧にキュレートされた画像テキストペアからなる。
論文 参考訳(メタデータ) (2024-01-24T14:23:12Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Zero-Shot Composed Image Retrieval with Textual Inversion [28.513594970580396]
Composed Image Retrieval (CIR) は、参照画像と相対キャプションからなるクエリに基づいてターゲット画像を取得することを目的としている。
ラベル付きトレーニングデータセットを必要とせずにCIRに対処することを目的とした新しいタスクZero-Shot CIR(ZS-CIR)を提案する。
論文 参考訳(メタデータ) (2023-03-27T14:31:25Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Single Image Dehazing with An Independent Detail-Recovery Network [117.86146907611054]
個別のDetail Recovery Network (DRN) を用いた単一画像デハージング手法を提案する。
DRNは、それぞれのローカルブランチとグローバルブランチを通じて、デハズドイメージの詳細を復元することを目的としている。
本手法は, 定量的, 定性的に, 最先端の脱ハージング法より優れる。
論文 参考訳(メタデータ) (2021-09-22T02:49:43Z) - A-FMI: Learning Attributions from Deep Networks via Feature Map
Importance [58.708607977437794]
勾配に基づくアトリビューション法は畳み込みニューラルネットワーク(CNN)の理解を助けることができる
帰属特徴の冗長性と勾配飽和問題は、帰属方法がまだ直面する課題である。
本稿では,各特徴マップの寄与度を高めるための新しい概念,特徴マップ重要度 (FMI) と,勾配飽和問題に対処するためのFMIによる新しい帰属法を提案する。
論文 参考訳(メタデータ) (2021-04-12T14:54:44Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。