論文の概要: Synthetic Multimodal Dataset for Empowering Safety and Well-being in
Home Environments
- arxiv url: http://arxiv.org/abs/2401.14743v1
- Date: Fri, 26 Jan 2024 10:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:26:00.381501
- Title: Synthetic Multimodal Dataset for Empowering Safety and Well-being in
Home Environments
- Title(参考訳): ホーム環境における安全と幸福の両立のための合成マルチモーダルデータセット
- Authors: Takanori Ugai, Shusaku Egami, Swe Nwe Nwe Htun, Kouji Kozaki, Takahiro
Kawamura, Ken Fukuda
- Abstract要約: 本稿では,3次元仮想空間シミュレータからの映像データを知識グラフで融合した日中活動の合成マルチモーダル時間について述べる。
このデータセットはKGRC4SI(Knowledge Graph Reasoning Challenge Social Issues)のために開発された。
- 参考スコア(独自算出の注目度): 1.747623282473278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a synthetic multimodal dataset of daily activities that
fuses video data from a 3D virtual space simulator with knowledge graphs
depicting the spatiotemporal context of the activities. The dataset is
developed for the Knowledge Graph Reasoning Challenge for Social Issues
(KGRC4SI), which focuses on identifying and addressing hazardous situations in
the home environment. The dataset is available to the public as a valuable
resource for researchers and practitioners developing innovative solutions
recognizing human behaviors to enhance safety and well-being in
- Abstract(参考訳): 本稿では,3次元仮想空間シミュレータの映像データと,活動の時空間的文脈を表現した知識グラフを融合した,日常活動のマルチモーダルデータセットを提案する。
このデータセットは、家庭環境における危険な状況の特定と対処に焦点を当てたナレッジグラフ推論チャレンジ(kgrc4si)のために開発された。
データセットは、安全と幸福を高めるために人間の行動を認識する革新的なソリューションを開発する研究者や実践者にとって貴重なリソースとして一般に公開されている。
関連論文リスト
- Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Big Data and Deep Learning in Smart Cities: A Comprehensive Dataset for
AI-Driven Traffic Accident Detection and Computer Vision Systems [0.0]
本研究は,スマートシティにおける最先端技術の適用について考察する。
本稿では,交通事故検出のための新しい包括的データセットを提案する。
このデータセットは学術研究を推進し、リアルタイムの事故検出アプリケーションを強化することが期待されている。
論文 参考訳(メタデータ) (2024-01-07T21:50:24Z) - Synthesizing Event-centric Knowledge Graphs of Daily Activities Using
Virtual Space [0.3324876873771104]
本研究では,仮想空間における日常生活活動の合成KGを生成するためのVirtualHome2KGフレームワークを提案する。
本フレームワークは、日常活動の合成ビデオデータと、映像コンテンツに対応する文脈意味データの両方を増強する。
関連データや意味情報が不十分なため、従来開発が困難であった様々なアプリケーションを開発することができる。
論文 参考訳(メタデータ) (2023-07-30T11:50:36Z) - Human-centric Scene Understanding for 3D Large-scale Scenarios [52.12727427303162]
本稿では,HuCenLifeという,人間中心のシーン理解のための大規模マルチモーダルデータセットを提案する。
私たちのHuCenLifeは、セグメンテーション、検出、アクション認識など、多くの3D認識タスクに役立ちます。
論文 参考訳(メタデータ) (2023-07-26T08:40:46Z) - Towards Ubiquitous Semantic Metaverse: Challenges, Approaches, and
Opportunities [68.03971716740823]
近年,拡張現実(AR)および仮想現実(VR)ユーザーのための没入型サイバーバーチャル体験に革命をもたらすために,ユビキタスセマンティック・メタバースが研究されている。
この調査は、ユビキタスメタバースにおける4つの基本システムコンポーネントの表現とインテリジェンスに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-13T11:14:46Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset
and Baseline Performances [87.20906333918032]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - FLAG3D: A 3D Fitness Activity Dataset with Language Instruction [89.60371681477791]
FLAG3Dは,60カテゴリの180Kシーケンスを含む言語命令付き大規模3Dフィットネスアクティビティデータセットである。
FLAG3Dは、クロスドメインなヒューマンアクション認識、動的ヒューマンメッシュリカバリ、言語誘導型ヒューマンアクション生成など、さまざまな課題に対して大きな研究価値を提供する。
論文 参考訳(メタデータ) (2022-12-09T02:33:33Z) - Socially Enhanced Situation Awareness from Microblogs using Artificial
Intelligence: A Survey [0.2320417845168326]
ソーシャルメディアプラットフォームの台頭は、私たちの周りの世界の知識の無限に豊富な情報源を提供する。
我々は、状況認識のためのマイクロブログソーシャルメディアデータに焦点をあてる。
私たちは、新しい統一された方法論的な視点を提供し、重要な結果と課題を特定します。
論文 参考訳(メタデータ) (2022-09-13T04:03:19Z) - Learning to Assess Danger from Movies for Cooperative Escape Planning in
Hazardous Environments [4.042350304426974]
このようなシナリオを実世界で再現することは困難であり、これはトレーニングとテストの目的で必要である。
現在のシステムは、このような危険な環境で利用可能なリッチなマルチモーダルデータを十分に活用することはできない。
本稿では,映画やテレビ番組の形式で利用可能な膨大な量の視覚コンテンツを活用し,現実世界で遭遇する危険環境を表現できるデータセットを開発することを提案する。
論文 参考訳(メタデータ) (2022-07-27T21:07:15Z) - Predicting the Future from First Person (Egocentric) Vision: A Survey [18.07516837332113]
この調査は、自我中心のビジョンから将来の予測の文脈における研究の進化を要約する。
アプリケーション、デバイス、既存の問題、一般的に使用されるデータセット、モデル、入力モダリティの概要を説明している。
我々の分析は、自我中心の視覚から将来の予測方法が、様々なアプリケーションに重大な影響を与えることを強調している。
論文 参考訳(メタデータ) (2021-07-28T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。