論文の概要: H4M: Heterogeneous, Multi-source, Multi-modal, Multi-view and
Multi-distributional Dataset for Socioeconomic Analytics in the Case of
Beijing
- arxiv url: http://arxiv.org/abs/2208.12542v1
- Date: Thu, 11 Aug 2022 13:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:43:44.480160
- Title: H4M: Heterogeneous, Multi-source, Multi-modal, Multi-view and
Multi-distributional Dataset for Socioeconomic Analytics in the Case of
Beijing
- Title(参考訳): H4M:北京における社会経済分析のための異種・マルチソース・マルチモーダル・マルチビュー・マルチディストリビューションデータセット
- Authors: Yaping Zhao, Shuhui Shi, Ramgopal Ravi, Zhongrui Wang, Edmund Y. Lam,
Jichang Zhao
- Abstract要約: ヘテロジニアス・マルチソース・マルチモーダル・マルチビュー・マルチディストリビューション・データセット「H4M」について述べる。
混合データセットには、中国北京の不動産取引、関心点、交通パターン、マイクロブログのトレンドのデータが含まれている。
- 参考スコア(独自算出の注目度): 4.746544835197422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of socioeconomic status has been reformed by the availability of
digital records containing data on real estate, points of interest, traffic and
social media trends such as micro-blogging. In this paper, we describe a
heterogeneous, multi-source, multi-modal, multi-view and multi-distributional
dataset named "H4M". The mixed dataset contains data on real estate
transactions, points of interest, traffic patterns and micro-blogging trends
from Beijing, China. The unique composition of H4M makes it an ideal test bed
for methodologies and approaches aimed at studying and solving problems related
to real estate, traffic, urban mobility planning, social sentiment analysis
etc. The dataset is available at: https://indigopurple.github.io/H4M/index.html
- Abstract(参考訳): 社会経済的地位の研究は、不動産、関心点、交通、マイクロブログのようなソーシャルメディアのトレンドを含むデジタル記録の入手によって、改革された。
本稿では,ヘテロジニアス,マルチソース,マルチモーダル,マルチビュー,マルチ分散データセット「h4m」について述べる。
混合データセットには、中国北京の不動産取引、関心点、交通パターン、マイクロブログのトレンドのデータが含まれている。
H4Mの独特な構成は、不動産、交通、都市移動計画、社会感情分析などに関わる問題を研究・解決するための方法論とアプローチのための理想的なテストベッドとなる。
データセットは、https://indigopurple.github.io/H4M/index.htmlで公開されている。
関連論文リスト
- Multi-modal Retrieval Augmented Multi-modal Generation: Datasets, Evaluation Metrics and Strong Baselines [64.61315565501681]
M$2$RAG(Multi-modal Retrieval Augmented Multi-modal Generation)は、基礎モデルのマルチモーダルWebコンテンツ処理を可能にする新しいタスクである。
潜在的な影響にもかかわらず、M$2$RAGは、包括的な分析と高品質なデータリソースを欠いている。
論文 参考訳(メタデータ) (2024-11-25T13:20:19Z) - InfiMM-WebMath-40B: Advancing Multimodal Pre-Training for Enhanced Mathematical Reasoning [58.7966588457529]
InfiMM-WebMath-40Bは、インターリーブされた画像テキスト文書の高品質なデータセットである。
ウェブページは2400万、画像URLは8500万、テキストトークンは400億だ。
テキストのみのベンチマークでは,400億トークンしか利用していないにもかかわらず,データセットは1.3Bモデルの性能を大幅に向上させることが示された。
私たちのモデルは、MathVerseやWe-Mathといったマルチモーダルな数学ベンチマーク上で、オープンソースモデルの中で新しい最先端のモデルを設定しました。
論文 参考訳(メタデータ) (2024-09-19T08:41:21Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - New Benchmark Dataset and Fine-Grained Cross-Modal Fusion Framework for Vietnamese Multimodal Aspect-Category Sentiment Analysis [1.053698976085779]
ホテルドメインのテキストと画像の両方に対して,14,618の微粒なアノテーションと4,876のテキストイメージ対からなるベトナムのマルチモーダルデータセットであるViMACSAを導入する。
そこで本研究では,細粒クロスモーダル・フュージョン・フレームワーク(FCMF, Fine-Grained Cross-Modal Fusion Framework)を提案する。
実験の結果,本フレームワークはViMACSAデータセット上でのSOTAモデルよりも優れており,F1スコアは79.73%であった。
論文 参考訳(メタデータ) (2024-05-01T14:29:03Z) - Multimodal Fusion on Low-quality Data: A Comprehensive Survey [110.22752954128738]
本稿では,野生におけるマルチモーダル核融合の共通課題と最近の進歩について考察する。
低品質データ上でのマルチモーダル融合で直面する4つの主な課題を同定する。
この新たな分類によって、研究者はフィールドの状態を理解し、いくつかの潜在的な方向を特定することができる。
論文 参考訳(メタデータ) (2024-04-27T07:22:28Z) - IITP-VDLand: A Comprehensive Dataset on Decentraland Parcels [1.83621951969607]
IITP-VDLandは、パーセル特性、トレーディング履歴、過去のアクティビティ、トランザクション、ソーシャルメディアのインタラクションを含む、豊富な属性を提供する。
仮想世界における各パーセルの特異性を測定するために,データセットにキー,すなわちRarityスコアを導入する。
論文 参考訳(メタデータ) (2024-04-11T07:54:14Z) - MM-Soc: Benchmarking Multimodal Large Language Models in Social Media Platforms [25.73585435351771]
本稿では,マルチモーダル大規模言語モデルによるソーシャルメディアコンテンツの理解を評価するためのベンチマークであるMM-Socを紹介する。
MM-Socは、注目すべきマルチモーダルデータセットをコンパイルし、新しい大規模なYouTubeタグ付けデータセットを組み込む。
分析の結果、ゼロショット環境では、様々なMLLMが一般的にソーシャルメディアのタスクを扱うのに困難を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-21T22:27:40Z) - Embrace Divergence for Richer Insights: A Multi-document Summarization Benchmark and a Case Study on Summarizing Diverse Information from News Articles [136.84278943588652]
同一イベントを含む複数のニュース記事において遭遇する多様な情報を要約する新しい課題を提案する。
この作業を容易にするために、多様な情報を特定するためのデータ収集スキーマの概要と、DiverseSummというデータセットをキュレートした。
データセットには245のニュース記事が含まれており、各ストーリーは10のニュース記事からなり、人間公認の参照と組み合わせられる。
論文 参考訳(メタデータ) (2023-09-17T20:28:17Z) - A deep learning framework to generate realistic population and mobility
data [5.180648702293017]
国勢調査と家庭旅行調査のデータセットは、定期的に家庭や個人から収集されている。
これらのデータセットは、プライバシの懸念による人口の限られたサンプルを表すか、集約されることが多い。
本稿では,社会経済的特徴(年齢,性別,産業など)とトリップチェーン(活動場所)の両方を含む合成人口を生成する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-14T14:05:09Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。