論文の概要: Multimodal Deep Learning
- arxiv url: http://arxiv.org/abs/2301.04856v1
- Date: Thu, 12 Jan 2023 07:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 13:24:02.606074
- Title: Multimodal Deep Learning
- Title(参考訳): マルチモーダルディープラーニング
- Authors: Cem Akkus, Luyang Chu, Vladana Djakovic, Steffen Jauch-Walser, Philipp
Koch, Giacomo Loss, Christopher Marquardt, Marco Moldovan, Nadja Sauter,
Maximilian Schneider, Rickmer Schulte, Karol Urbanczyk, Jann Goschenhofer,
Christian Heumann, Rasmus Hvingelby, Daniel Schalk, Matthias A{\ss}enmacher
- Abstract要約: この本は、マルチモーダルアプローチをレビューするセミナーの結果です。
モデリングフレームワークは、1つのモダリティがもう1つのモダリティに変換される場所について議論される。
両方のモダリティを同時に扱うことに焦点を当てたアーキテクチャが導入される。
- 参考スコア(独自算出の注目度): 2.6069776663350677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This book is the result of a seminar in which we reviewed multimodal
approaches and attempted to create a solid overview of the field, starting with
the current state-of-the-art approaches in the two subfields of Deep Learning
individually. Further, modeling frameworks are discussed where one modality is
transformed into the other, as well as models in which one modality is utilized
to enhance representation learning for the other. To conclude the second part,
architectures with a focus on handling both modalities simultaneously are
introduced. Finally, we also cover other modalities as well as general-purpose
multi-modal models, which are able to handle different tasks on different
modalities within one unified architecture. One interesting application
(Generative Art) eventually caps off this booklet.
- Abstract(参考訳): この本は,Deep Learningの2つのサブフィールドにおける現在最先端のアプローチから始まる,マルチモーダルなアプローチをレビューし,現場をしっかりと概観しようとしたセミナーの結果である。
さらに、一方のモダリティが他方に変換されるようなモデリングフレームワークや、他方のモダリティが他方のモダリティを表現学習に活用するモデルについても論じる。
第2部では、両方のモダリティを同時に扱うことに焦点を当てたアーキテクチャを紹介する。
最後に、他のモダリティや汎用マルチモーダルモデルについても取り上げ、単一の統一アーキテクチャ内で異なるモダリティ上の異なるタスクを処理できる。
興味深いアプリケーション(Generative Art)が最終的にこのブックレットを終了する。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,複数モーダルからインスタンスを識別するクロスモーダルなFew-Shot Learningタスクを提案する。
本稿では,1つの段階からなる生成的転帰学習フレームワークを提案する。1つは豊富な一助データに対する学習を伴い,もう1つは新しいデータに適応するための転帰学習に焦点を当てる。
以上の結果から,GTLは4つの異なるマルチモーダルデータセット間の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - A Second-Order Perspective on Model Compositionality and Incremental Learning [36.08964229374733]
本研究では,非線形ネットワークにおける構成性のデミスト化を試みる理論的研究を提案する。
提案した定式化は、構成可能なモジュールを達成するために、事前訓練された盆地内に留まることの重要性を強調している。
実際、インクリメンタルに学習されたモジュールのプールは、効果的なマルチタスクモデルの作成をサポートするだけでなく、特定のタスクの未学習と特殊化を可能にする。
論文 参考訳(メタデータ) (2024-05-25T20:56:54Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - In Pursuit of Unification of Conceptual Models: Sets as Machines [0.0]
この写本は、第二のアプローチに属する研究事業の続編である。
これは、ストイック論理とルパシアン論理に基づいて構築されたデッキングマシンと呼ばれるモデルを使用する。
論文 参考訳(メタデータ) (2023-06-24T01:28:31Z) - On Uni-Modal Feature Learning in Supervised Multi-Modal Learning [21.822251958013737]
マルチモーダルデータの特徴(つまり学習された表現)を,1)ユニモーダルな特徴と2)相互モーダルな相互作用からしか学べないペア化された特徴にまとめる。
簡単な誘導戦略により、様々なマルチモーダルデータセット上の他の複雑なレイトフュージョン法や中間フュージョン法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-02T07:15:10Z) - Multimodal Contrastive Learning via Uni-Modal Coding and Cross-Modal
Prediction for Multimodal Sentiment Analysis [19.07020276666615]
本稿では,マルチモーダル表現のためのMMCL(MultiModal Contrastive Learning)というフレームワークを提案する。
また、予測のプロセスを促進し、感情に関連するよりインタラクティブな情報を学ぶために、事例ベースと感情ベースのコントラスト学習という2つのコントラスト学習タスクを設計する。
論文 参考訳(メタデータ) (2022-10-26T08:24:15Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - A Unified Continuous Learning Framework for Multi-modal Knowledge
Discovery and Pre-training [73.7507857547549]
本稿では,継続的学習フレームワークにおける知識発見とマルチモーダル事前学習の統合を提案する。
知識発見のために、事前訓練されたモデルを用いてグラフ上のクロスモーダルリンクを識別する。
モデル事前トレーニングでは、モデル更新をガイドする外部知識として知識グラフが使用される。
論文 参考訳(メタデータ) (2022-06-11T16:05:06Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。