論文の概要: Multiview Representation Learning from Crowdsourced Triplet Comparisons
- arxiv url: http://arxiv.org/abs/2302.03987v1
- Date: Wed, 8 Feb 2023 10:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:48:28.758972
- Title: Multiview Representation Learning from Crowdsourced Triplet Comparisons
- Title(参考訳): クラウドソースによるトリプレット比較によるマルチビュー表現学習
- Authors: Xiaotian Lu, Jiyi Li, Koh Takeuchi, Hisashi Kashima
- Abstract要約: トリプルト類似性比較は、クラウドソーシングタスクの一種である。
群衆労働者は質問されます。
3つの物体の中で どの2つが似ていますか?
- 参考スコア(独自算出の注目度): 23.652378640389756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crowdsourcing has been used to collect data at scale in numerous fields.
Triplet similarity comparison is a type of crowdsourcing task, in which crowd
workers are asked the question ``among three given objects, which two are more
similar?'', which is relatively easy for humans to answer. However, the
comparison can be sometimes based on multiple views, i.e., different
independent attributes such as color and shape. Each view may lead to different
results for the same three objects. Although an algorithm was proposed in prior
work to produce multiview embeddings, it involves at least two problems: (1)
the existing algorithm cannot independently predict multiview embeddings for a
new sample, and (2) different people may prefer different views. In this study,
we propose an end-to-end inductive deep learning framework to solve the
multiview representation learning problem. The results show that our proposed
method can obtain multiview embeddings of any object, in which each view
corresponds to an independent attribute of the object. We collected two
datasets from a crowdsourcing platform to experimentally investigate the
performance of our proposed approach compared to conventional baseline methods.
- Abstract(参考訳): クラウドソーシングは、さまざまな分野で大規模なデータ収集に使用されている。
トリプルト類似性比較は、クラウドソーシングのタスクの一種であり、群衆労働者は「与えられた3つのオブジェクトのうち、2つはより類似している?」という質問を受ける。
しかし、その比較は、色や形状などの異なる独立した属性など、複数のビューに基づくこともある。
各ビューは同じ3つのオブジェクトに対して異なる結果をもたらす可能性がある。
マルチビュー埋め込みを作成するアルゴリズムが先行研究で提案されているが、(1)既存のアルゴリズムでは、新しいサンプルのマルチビュー埋め込みを独立して予測できない、(2)異なる人が異なるビューを好む、という2つの問題がある。
本研究では,多視点表現学習問題を解決するために,エンドツーエンドのインダクティブディープラーニングフレームワークを提案する。
提案手法は,各ビューがオブジェクトの独立属性に対応するような,任意のオブジェクトのマルチビュー埋め込みを得ることができることを示す。
クラウドソーシングプラットフォームから2つのデータセットを収集し,従来のベースライン手法と比較して提案手法の性能を実験的に検討した。
関連論文リスト
- Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - Identifiability Results for Multimodal Contrastive Learning [72.15237484019174]
本研究では,以前研究したマルチビュー設定よりも,より一般的な設定で共有要因を復元可能であることを示す。
本研究は,マルチモーダル表現学習の理論的基盤を提供し,マルチモーダルコントラスト学習を実践的に効果的に設定する方法を説明する。
論文 参考訳(メタデータ) (2023-03-16T09:14:26Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Error-Robust Multi-View Clustering: Progress, Challenges and
Opportunities [67.54503077766171]
ラベル情報は取得に費用がかかることが多いため、マルチビュークラスタリングが注目されている。
明示的なエラー除去定式化によるエラーロバストマルチビュークラスタリングアプローチは、5つの広範な研究カテゴリに構成できる。
この調査は、マルチビューデータに対するエラーロストクラスタリングの最近の進歩を要約し、レビューする。
論文 参考訳(メタデータ) (2021-05-07T04:03:02Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Random Forest for Dissimilarity-based Multi-view Learning [8.185807285320553]
本研究では、ランダムフォレスト近接測度を用いて、相似性表現を構築することができることを示す。
次に、ビュー固有の相似性表現をよりうまく組み合わせるための動的ビュー選択法を提案する。
論文 参考訳(メタデータ) (2020-07-16T14:52:52Z) - Multi-view Low-rank Preserving Embedding: A Novel Method for Multi-view
Representation [11.91574721055601]
本稿では,MvLPE(Multi-view Low-rank Preserving Embedding)という新しい多視点学習手法を提案する。
異なるビューを1つのセントロイドビューに統合し、インスタンス間の距離や類似性行列に基づいて、不一致項を最小化する。
6つのベンチマークデータセットの実験では、提案手法がそれよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-06-14T12:47:25Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。