論文の概要: Approaches For Multi-View Redescription Mining
- arxiv url: http://arxiv.org/abs/2006.12227v2
- Date: Tue, 17 Nov 2020 14:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:04:39.856943
- Title: Approaches For Multi-View Redescription Mining
- Title(参考訳): マルチビュー再記述マイニングへのアプローチ
- Authors: Matej Mihel\v{c}i\'c and Tomislav \v{S}muc
- Abstract要約: マイニングのタスクは、データセットに含まれるさまざまなエンティティのサブセットを再記述する方法を探索する。
複数のビューを関連付けるために使用可能な,メモリ効率のよいマルチビューリセプションマイニングフレームワークを提案する。
いくつかのデータセット上で提案したマルチビュー拡張の有用性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of redescription mining explores ways to re-describe different
subsets of entities contained in a dataset and to reveal non-trivial
associations between different subsets of attributes, called views. This
interesting and challenging task is encountered in different scientific fields,
and is addressed by a number of approaches that obtain redescriptions and allow
for the exploration and analyses of attribute associations. The main limitation
of existing approaches to this task is their inability to use more than two
views. Our work alleviates this drawback. We present a memory efficient,
extensible multi-view redescription mining framework that can be used to relate
multiple, i.e. more than two views, disjoint sets of attributes describing one
set of entities. The framework can use any multi-target regression or
multi-label classification algorithm, with models that can be represented as
sets of rules, to generate redescriptions. Multi-view redescriptions are built
using incremental view-extending heuristic from initially created two-view
redescriptions. In this work, we use different types of Predictive Clustering
trees algorithms (regular, extra, with random output selection) and the Random
Forest thereof in order to improve the quality of final redescription sets
and/or execution time needed to generate them. We provide multiple performance
analyses of the proposed framework and compare it against the naive approach to
multi-view redescription mining. We demonstrate the usefulness of the proposed
multi-view extension on several datasets, including a use-case on understanding
of machine learning models - a topic of growing importance in machine learning
and artificial intelligence in general.
- Abstract(参考訳): マイニングのタスクは、データセットに含まれるエンティティの異なるサブセットを再記述する方法を探り、ビューと呼ばれる属性の異なるサブセット間の非自明な関連を明らかにする。
この興味深く挑戦的なタスクは、異なる科学分野において遭遇し、再記述を得て属性関係の探索と分析を可能にする多くのアプローチによって対処される。
このタスクに対する既存のアプローチの主な制限は、2つ以上のビューを使用することができないことである。
私たちの仕事はこの欠点を和らげる。
我々は,複数,すなわち2つ以上のビュー,つまり1つのエンティティを記述する属性の分離セットを関連付けるために使用できる,メモリ効率が高く拡張可能なマルチビュー再記述マイニングフレームワークを提案する。
このフレームワークは、ルールの集合として表現できるモデルで、任意のマルチターゲット回帰またはマルチラベル分類アルゴリズムを使用することができる。
マルチビュー再記述は、当初作成された2ビューの再記述からインクリメンタルビュー拡張ヒューリスティックを使用して構築される。
本研究では,様々な種類の予測クラスタリング木アルゴリズム(正規,余分,ランダムな出力選択)とランダムフォレストを用いて,最終再記述集合の品質向上と生成に必要な実行時間の改善を行った。
本稿では,提案フレームワークの性能解析を行い,マルチビュー再記述マイニングに対するナイーブなアプローチと比較する。
本稿では、機械学習モデルの理解に関するユースケースを含む、いくつかのデータセットで提案されたマルチビュー拡張の有用性を実証する。
関連論文リスト
- Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - M$^3$Net: Multi-view Encoding, Matching, and Fusion for Few-shot
Fine-grained Action Recognition [80.21796574234287]
M$3$Netは、FS-FGアクション認識のためのマッチングベースのフレームワークである。
textitmulti-view エンコーディング、textitmulti-view matching、textitmulti-view fusion を組み込んで、埋め込みエンコーディング、類似性マッチング、意思決定を容易にする。
説明可能な可視化と実験結果により,M$3$Netの微細な動作の詳細を捉える上での優位性が示された。
論文 参考訳(メタデータ) (2023-08-06T09:15:14Z) - Conditional Cross Attention Network for Multi-Space Embedding without
Entanglement in Only a SINGLE Network [1.8899300124593648]
本研究では,複数の特定の属性に対して,単一のバックボーンのみを交叉する多空間埋め込みを誘導する条件付きクロスアテンションネットワークを提案する。
提案手法は,FashionAI,DARN,DeepFashion,Zappos50Kベンチマークデータセット上で一貫した最先端性能を実現した。
論文 参考訳(メタデータ) (2023-07-25T04:48:03Z) - Retrieval-Enhanced Visual Prompt Learning for Few-shot Classification [9.843214426749764]
本稿では,下流タスクの知識をキャッシュし再利用するための検索強化ビジュアルプロンプト学習(RePrompt)を提案する。
推測中、我々の拡張モデルは、より正確な予測を行うために、検索によってもたらされた類似のサンプルを参照することができる。
RePromptは、幅広いビジョンデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-04T03:06:37Z) - Universal Instance Perception as Object Discovery and Retrieval [90.96031157557806]
UNIは多様なインスタンス認識タスクを統一されたオブジェクト発見・検索パラダイムに再構成する。
入力プロンプトを変更するだけで、さまざまな種類のオブジェクトを柔軟に知覚することができる。
UNIは10のインスタンスレベルのタスクから20の挑戦的なベンチマークで優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-12T14:28:24Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Random Forest for Dissimilarity-based Multi-view Learning [8.185807285320553]
本研究では、ランダムフォレスト近接測度を用いて、相似性表現を構築することができることを示す。
次に、ビュー固有の相似性表現をよりうまく組み合わせるための動的ビュー選択法を提案する。
論文 参考訳(メタデータ) (2020-07-16T14:52:52Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z) - Deep Multi-Modal Sets [29.983311598563542]
ディープ・マルチモーダル・セット(Deep Multi-Modal Sets)は、1つの長く成長する固定サイズのベクトルではなく、非順序集合として特徴の集合を表現する技法である。
さまざまなタイプのタスクを学習するために,さまざまなモダリティを理由として,スケーラブルでマルチモーダルなフレームワークを実証する。
論文 参考訳(メタデータ) (2020-03-03T15:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。