論文の概要: Synthetic Multimodal Dataset for Empowering Safety and Well-being in
Home Environments
- arxiv url: http://arxiv.org/abs/2401.14743v1
- Date: Fri, 26 Jan 2024 10:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:26:00.381501
- Title: Synthetic Multimodal Dataset for Empowering Safety and Well-being in
Home Environments
- Title(参考訳): ホーム環境における安全と幸福の両立のための合成マルチモーダルデータセット
- Authors: Takanori Ugai, Shusaku Egami, Swe Nwe Nwe Htun, Kouji Kozaki, Takahiro
Kawamura, Ken Fukuda
- Abstract要約: 本稿では,3次元仮想空間シミュレータからの映像データを知識グラフで融合した日中活動の合成マルチモーダル時間について述べる。
このデータセットはKGRC4SI(Knowledge Graph Reasoning Challenge Social Issues)のために開発された。
- 参考スコア(独自算出の注目度): 1.747623282473278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a synthetic multimodal dataset of daily activities that
fuses video data from a 3D virtual space simulator with knowledge graphs
depicting the spatiotemporal context of the activities. The dataset is
developed for the Knowledge Graph Reasoning Challenge for Social Issues
(KGRC4SI), which focuses on identifying and addressing hazardous situations in
the home environment. The dataset is available to the public as a valuable
resource for researchers and practitioners developing innovative solutions
recognizing human behaviors to enhance safety and well-being in
- Abstract(参考訳): 本稿では,3次元仮想空間シミュレータの映像データと,活動の時空間的文脈を表現した知識グラフを融合した,日常活動のマルチモーダルデータセットを提案する。
このデータセットは、家庭環境における危険な状況の特定と対処に焦点を当てたナレッジグラフ推論チャレンジ(kgrc4si)のために開発された。
データセットは、安全と幸福を高めるために人間の行動を認識する革新的なソリューションを開発する研究者や実践者にとって貴重なリソースとして一般に公開されている。
関連論文リスト
- Can-Do! A Dataset and Neuro-Symbolic Grounded Framework for Embodied Planning with Large Multimodal Models [85.55649666025926]
具体的計画能力を評価するために設計されたベンチマークデータセットであるCan-Doを紹介する。
私たちのデータセットには400のマルチモーダルサンプルが含まれており、それぞれが自然言語のユーザ指示、環境を描写した視覚イメージ、状態変化、対応するアクションプランで構成されています。
ニューログラウンド(NeuroGround)は、まず認識された環境状態において計画生成を基礎とし、次に象徴的な計画エンジンを活用してモデル生成計画を強化する、ニューログラウンド(NeuroGround)を提案する。
論文 参考訳(メタデータ) (2024-09-22T00:30:11Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Best Practices and Lessons Learned on Synthetic Data [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - Object Detectors in the Open Environment: Challenges, Solutions, and Outlook [95.3317059617271]
オープン環境のダイナミックで複雑な性質は、オブジェクト検出器に新しくて恐ろしい挑戦をもたらす。
本稿では,オープン環境におけるオブジェクト検出器の総合的なレビューと解析を行う。
データ/ターゲットの変化の次元に基づいて、4つの四分法(ドメイン外、カテゴリ外、堅牢な学習、漸進的な学習)を含むフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-24T19:32:39Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Big Data and Deep Learning in Smart Cities: A Comprehensive Dataset for
AI-Driven Traffic Accident Detection and Computer Vision Systems [0.0]
本研究は,スマートシティにおける最先端技術の適用について考察する。
本稿では,交通事故検出のための新しい包括的データセットを提案する。
このデータセットは学術研究を推進し、リアルタイムの事故検出アプリケーションを強化することが期待されている。
論文 参考訳(メタデータ) (2024-01-07T21:50:24Z) - Synthesizing Event-centric Knowledge Graphs of Daily Activities Using
Virtual Space [0.3324876873771104]
本研究では,仮想空間における日常生活活動の合成KGを生成するためのVirtualHome2KGフレームワークを提案する。
本フレームワークは、日常活動の合成ビデオデータと、映像コンテンツに対応する文脈意味データの両方を増強する。
関連データや意味情報が不十分なため、従来開発が困難であった様々なアプリケーションを開発することができる。
論文 参考訳(メタデータ) (2023-07-30T11:50:36Z) - Towards Ubiquitous Semantic Metaverse: Challenges, Approaches, and
Opportunities [68.03971716740823]
近年,拡張現実(AR)および仮想現実(VR)ユーザーのための没入型サイバーバーチャル体験に革命をもたらすために,ユビキタスセマンティック・メタバースが研究されている。
この調査は、ユビキタスメタバースにおける4つの基本システムコンポーネントの表現とインテリジェンスに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-13T11:14:46Z) - Socially Enhanced Situation Awareness from Microblogs using Artificial
Intelligence: A Survey [0.2320417845168326]
ソーシャルメディアプラットフォームの台頭は、私たちの周りの世界の知識の無限に豊富な情報源を提供する。
我々は、状況認識のためのマイクロブログソーシャルメディアデータに焦点をあてる。
私たちは、新しい統一された方法論的な視点を提供し、重要な結果と課題を特定します。
論文 参考訳(メタデータ) (2022-09-13T04:03:19Z) - Learning to Assess Danger from Movies for Cooperative Escape Planning in
Hazardous Environments [4.042350304426974]
このようなシナリオを実世界で再現することは困難であり、これはトレーニングとテストの目的で必要である。
現在のシステムは、このような危険な環境で利用可能なリッチなマルチモーダルデータを十分に活用することはできない。
本稿では,映画やテレビ番組の形式で利用可能な膨大な量の視覚コンテンツを活用し,現実世界で遭遇する危険環境を表現できるデータセットを開発することを提案する。
論文 参考訳(メタデータ) (2022-07-27T21:07:15Z) - Predicting the Future from First Person (Egocentric) Vision: A Survey [18.07516837332113]
この調査は、自我中心のビジョンから将来の予測の文脈における研究の進化を要約する。
アプリケーション、デバイス、既存の問題、一般的に使用されるデータセット、モデル、入力モダリティの概要を説明している。
我々の分析は、自我中心の視覚から将来の予測方法が、様々なアプリケーションに重大な影響を与えることを強調している。
論文 参考訳(メタデータ) (2021-07-28T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。