論文の概要: Integrating Multi-view Analysis: Multi-view Mixture-of-Expert for Textual Personality Detection
- arxiv url: http://arxiv.org/abs/2408.08551v1
- Date: Fri, 16 Aug 2024 06:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:28:41.233718
- Title: Integrating Multi-view Analysis: Multi-view Mixture-of-Expert for Textual Personality Detection
- Title(参考訳): マルチビュー分析の統合:テキスト・パーソナリティ検出のためのマルチビュー・ミックス・オブ・エキスパート
- Authors: Haohao Zhu, Xiaokun Zhang, Junyu Lu, Liang Yang, Hongfei Lin,
- Abstract要約: テキスト・パーソナリティ検出は、ユーザ生成コンテンツを分析して人格の特徴を識別することを目的としている。
これまでの研究では、複数の視点から情報を自動的に抽出し、効果的に統合することに苦労してきた。
テキスト・パーソナリティ検出のためのマルチビュー・ミックス・オブ・エクササイズ・モデル(MvP)を提案する。
- 参考スコア(独自算出の注目度): 17.9947364868881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textual personality detection aims to identify personality traits by analyzing user-generated content. To achieve this effectively, it is essential to thoroughly examine user-generated content from various perspectives. However, previous studies have struggled with automatically extracting and effectively integrating information from multiple perspectives, thereby limiting their performance on personality detection. To address these challenges, we propose the Multi-view Mixture-of-Experts Model for Textual Personality Detection (MvP). MvP introduces a Multi-view Mixture-of-Experts (MoE) network to automatically analyze user posts from various perspectives. Additionally, it employs User Consistency Regularization to mitigate conflicts among different perspectives and learn a multi-view generic user representation. The model's training is optimized via a multi-task joint learning strategy that balances supervised personality detection with self-supervised user consistency constraints. Experimental results on two widely-used personality detection datasets demonstrate the effectiveness of the MvP model and the benefits of automatically analyzing user posts from diverse perspectives for textual personality detection.
- Abstract(参考訳): テキスト・パーソナリティ検出は、ユーザ生成コンテンツを分析して人格の特徴を識別することを目的としている。
これを効果的に実現するためには、様々な視点からユーザー生成コンテンツを徹底的に検証することが不可欠である。
しかし、従来の研究では、複数の視点から情報を自動的に抽出し、効果的に統合することで、人格検出の性能を制限してきた。
これらの課題に対処するために,テキスト・パーソナリティ検出のためのMulti-view Mixture-of-Experts Model(MvP)を提案する。
MvPは、様々な視点からユーザー投稿を自動的に分析するMulti-view Mixture-of-Experts (MoE)ネットワークを導入した。
さらに、異なる視点の衝突を緩和し、多視点の汎用的ユーザ表現を学ぶために、ユーザ一貫性規則化を採用している。
モデルのトレーニングは、教師付きパーソナリティ検出と自己教師付きユーザ一貫性制約のバランスをとるマルチタスク共同学習戦略によって最適化される。
広く使われている2つの人格検出データセットの実験結果は、MvPモデルの有効性と、テキストによる人格検出のための多様な視点からユーザー投稿を自動的に分析する利点を示している。
関連論文リスト
- Towards Unified Multi-granularity Text Detection with Interactive Attention [56.79437272168507]
Detect Any Text"は、シーンテキストの検出、レイアウト分析、ドキュメントページの検出を結合的なエンドツーエンドモデルに統合する高度なパラダイムである。
DATにおける重要なイノベーションは、テキストインスタンスの表現学習を大幅に強化する、粒度横断型アテンションモジュールである。
テストによると、DATは様々なテキスト関連ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-30T07:25:23Z) - AdaFPP: Adapt-Focused Bi-Propagating Prototype Learning for Panoramic Activity Recognition [51.24321348668037]
パノラマ活動認識(PAR)は、パノラマシーンにおいて複数の人が行う多粒度行動を特定することを目的としている。
以前の方法は、トレーニングと推論において手動で注釈付き検出ボックスに依存しており、より実用的なデプロイメントを妨げる。
本研究では,パノラマ活動シーンにおける個人,グループ,グローバルな活動を共同で認識するための,適応型バイプロパゲーティング・プロトタイプ学習(AdaFPP)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-04T01:53:22Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - What User Behaviors Make the Differences During the Process of Visual
Analytics? [1.5285292154680246]
本研究では,ユーザ行動の包括的データ収集と時系列分類手法を用いた分析手法を提案する。
ユーザスタディでは,デスクトップと没入型2種類の可視化システムを用いて,多様な可視化タスクのユーザ行動を収集している。
この結果から,視覚分析の過程でユーザ行動の区別が可能であり,ユーザの身体行動とそれらが実行する可視化タスクとの間には強い関連性があることが判明した。
論文 参考訳(メタデータ) (2023-11-01T17:45:52Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Uncertainty-Aware Multi-View Representation Learning [53.06828186507994]
動的不確実性認識ネットワーク(DUA-Nets)と呼ばれる新しい教師なし多視点学習手法を考案する。
生成視点から推定されるデータの不確実性により、複数の視点からの固有情報が統合され、ノイズのない表現が得られる。
本モデルでは, 広範囲な実験において優れた性能を示し, ノイズの多いデータに対するロバスト性を示す。
論文 参考訳(メタデータ) (2022-01-15T07:16:20Z) - MOPT: Multi-Object Panoptic Tracking [33.77171216778909]
マルチオブジェクト・パノプティブ・トラッキング(MOPT)と呼ばれる新しい知覚タスクを導入する。
MOPTは、時間とともに、"thing"クラスと"stuff"クラスのピクセルレベルのセマンティック情報、時間的コヒーレンス、ピクセルレベルの関連を活用できる。
視覚ベースとLiDARベースのMOPTの定量的,定性的な評価を行い,その効果を実証した。
論文 参考訳(メタデータ) (2020-04-17T11:45:28Z) - Exploit Clues from Views: Self-Supervised and Regularized Learning for
Multiview Object Recognition [66.87417785210772]
本研究では,マルチビュー自己教師型学習(MV-SSL)の問題点について検討する。
対象不変」表現を追求し,自己指導型学習のための新しい代理課題を提案する。
実験の結果,ビュー不変プロトタイプ埋め込み(VISPE)による認識と検索は,他の自己教師あり学習方法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-28T07:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。