論文の概要: Building BROOK: A Multi-modal and Facial Video Database for
Human-Vehicle Interaction Research
- arxiv url: http://arxiv.org/abs/2005.08637v2
- Date: Tue, 19 May 2020 14:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:26:27.604368
- Title: Building BROOK: A Multi-modal and Facial Video Database for
Human-Vehicle Interaction Research
- Title(参考訳): building brook: 人車間インタラクション研究のためのマルチモーダルおよび顔ビデオデータベース
- Authors: Xiangjun Peng, Zhentao Huang, Xu Sun
- Abstract要約: 顔の映像記録を付加した公共マルチモーダルデータベースであるBROOKについて述べる。
マルチモーダル予測をサポートするBROOKを利用したニューラルネットワークベースの予測器を紹介する。
我々は、BROOKが将来の人-車間相互作用研究にとって不可欠なビルディングブロックであると信じている。
- 参考スコア(独自算出の注目度): 12.004786079394654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing popularity of Autonomous Vehicles, more opportunities have
bloomed in the context of Human-Vehicle Interactions. However, the lack of
comprehensive and concrete database support for such specific use case limits
relevant studies in the whole design spaces. In this paper, we present our
work-in-progress BROOK, a public multi-modal database with facial video
records, which could be used to characterize drivers' affective states and
driving styles. We first explain how we over-engineer such database in details,
and what we have gained through a ten-month study. Then we showcase a Neural
Network-based predictor, leveraging BROOK, which supports multi-modal
prediction (including physiological data of heart rate and skin conductance and
driving status data of speed)through facial videos. Finally, we discuss related
issues when building such a database and our future directions in the context
of BROOK. We believe BROOK is an essential building block for future
Human-Vehicle Interaction Research.
- Abstract(参考訳): 自動運転車の普及に伴い、人間と車両の相互作用の文脈で多くの機会が生まれている。
しかしながら、このような特定のユースケースに対する包括的かつ具体的なデータベースサポートの欠如は、設計スペース全体における関連する研究を制限する。
本稿では,運転者の情動状態や運転スタイルを特徴付けるために,顔ビデオ記録を備えた公共マルチモーダルデータベースであるBROOKを提案する。
私たちはまず、そのようなデータベースを詳細にオーバーエンジニアリングし、そして10ヶ月の研究で得られたものを説明します。
次に,顔面ビデオを通してマルチモーダル予測(心拍数と皮膚コンダクタンスの生理データ,速度の運転状況データを含む)をサポートするbrookを活用したニューラルネットワークベースの予測器について紹介する。
最後に,このようなデータベースを構築する際の問題点とBROOKの文脈における今後の方向性について議論する。
我々は、BROOKが将来の人間-車両インタラクション研究にとって不可欠なビルディングブロックであると信じている。
関連論文リスト
- Towards Generalist Robot Learning from Internet Video: A Survey [56.621902345314645]
ディープラーニングを巨大なインターネットスクレイプデータセットにスケールすることで、自然言語処理と視覚的理解と生成において、極めて一般的な機能を実現している。
データはロボット工学で収集するには不十分で費用がかかる。これは、他の領域で観測される能力の一般性に合わせるために、ロボット学習が苦労しているのである。
Learning from Videos (LfV)メソッドは、従来のロボットデータを大規模なインターネットスクラッドビデオデータセットで拡張することで、このデータボトルネックに対処しようとしている。
論文 参考訳(メタデータ) (2024-04-30T15:57:41Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - Identifying built environment factors influencing driver yielding behavior at unsignalized intersections: A naturalistic open-source dataset collected in Minnesota [1.7810134788247751]
多くの要因が、交通量、車両速度、道路特性など、ドライバーと歩行者の相互作用の結果に影響を与える。
ミネソタ州を横断する18の無署名の交差点で、ビデオデータから収集された大規模なオープンソースデータセットを紹介した。
3000以上のインタラクションをドキュメント化したこのデータセットは、ドライバと歩行者のインタラクションと、50以上の異なるコンテキスト変数の詳細なビューを提供する。
論文 参考訳(メタデータ) (2023-12-22T23:18:27Z) - Multimodal Neural Databases [4.321727213494619]
マルチモーダルニューラルネットワーク(MMNDB)と呼ばれる新しいフレームワークを提案する。
MMNDBは、テキストや画像など、さまざまな入力モダリティを大規模に推論する、複雑なデータベースのようなクエリに答えることができる。
これらの新しい手法が、異なるモダリティから得られる非構造化データを処理する可能性を示し、将来の研究への道を開く。
論文 参考訳(メタデータ) (2023-05-02T14:27:56Z) - ViLPAct: A Benchmark for Compositional Generalization on Multimodal
Human Activities [68.93275430102118]
ViLPActは人間の活動計画のためのビジョン言語ベンチマークである。
データセットは、クラウドソーシングを通じて意図を持って拡張されたチャレードから2.9kのビデオで構成されている。
論文 参考訳(メタデータ) (2022-10-11T15:50:51Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - BehavePassDB: Benchmarking Mobile Behavioral Biometrics [12.691633481373927]
新たなデータベースであるBehavePassDBを,個別の取得セッションとタスクに構成する。
本稿では,三重項損失とスコアレベルでのモダリティ融合を有する長短項メモリ(LSTM)アーキテクチャに基づくシステムを提案し,評価する。
論文 参考訳(メタデータ) (2022-06-06T11:21:15Z) - Learning Vision Transformer with Squeeze and Excitation for Facial
Expression Recognition [10.256620178727884]
我々は、FERタスクのためのSqueeze and Excitation(SE)ブロックと共同で視覚変換器を学ぶことを提案する。
提案手法は、CK+, JAFFE,RAF-DB, SFEWなど、利用可能なさまざまなFERデータベース上で評価される。
実験により,本モデルはCK+およびSFEWの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-07-07T09:49:01Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z) - FADACS: A Few-shot Adversarial Domain Adaptation Architecture for
Context-Aware Parking Availability Sensing [5.160087162892865]
本研究では,駐車場データの不十分な地域での駐車状況を予測するために,駐車状況検知のためのエンドツーエンドの移動学習フレームワークを設計する。
このフレームワークは2つの課題を克服する。1) 既存のデータ駆動モデルに十分なデータを提供できない実世界のケースが多く、2) センサデータと異種コンテキスト情報をマージすることは困難である。
論文 参考訳(メタデータ) (2020-07-13T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。