論文の概要: Investigation of condominium building collapse in Surfside, Florida: a
video feature tracking approach
- arxiv url: http://arxiv.org/abs/2109.06629v1
- Date: Fri, 10 Sep 2021 16:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 23:59:20.163220
- Title: Investigation of condominium building collapse in Surfside, Florida: a
video feature tracking approach
- Title(参考訳): フロリダ州サーフサイドにおけるマンションビル崩壊調査:ビデオ特徴追跡手法
- Authors: Xiangxiong Kong
- Abstract要約: 2021年6月24日、フロリダ州サーフサイドにある12階建てのマンションが部分的に崩壊し、98人が死亡した。
ソーシャルメディアから公開されているビデオクリップを用いて,この崩壊イベントを分析した。
コンピュータビジョンアルゴリズムを用いて、人間の目では容易に解釈できないかもしれないビデオクリップからの新しい情報を照合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: On June 24, 2021, a 12-story condominium building (Champlain Towers South) in
Surfside, Florida partially collapsed, resulting in one of the deadliest
building collapses in United States history with 98 people are confirmed dead.
We analyze this collapse event using a video clip that is publicly available
from social media. We apply computer vision algorithms to corroborate new
information from the video clip that may not be readily interpreted by human
eyes. By comparing the differential features against different video frames,
our method can quantify the falling structural components by intuitively
showing the directions and magnitudes of their movements. We demonstrate the
potential of this video processing methodology in investigations of
catastrophic structural failures and hope our results would serve as the basis
for further investigations of this and other structure collapse events.
- Abstract(参考訳): 2021年6月24日、フロリダ州サーフサイドにある12階建てのマンション(シャンプレーン・タワーズ・サウス)が部分的に崩壊し、98人が死亡した。
ソーシャルメディアから公開されているビデオクリップを用いて,この崩壊イベントを分析した。
コンピュータビジョンアルゴリズムを応用して,人間の目では容易に解釈できないビデオクリップから新たな情報を取り出す。
異なる映像フレームに対する差動特性を比較することで,動きの方向や大きさを直感的に示すことにより,落下する構造成分を定量化することができる。
我々は,この映像処理手法が破壊的構造破壊の調査に有用であることを実証し,この現象と他の構造崩壊のさらなる調査の基盤となることを期待する。
関連論文リスト
- FADE: A Dataset for Detecting Falling Objects around Buildings in Video [75.48118923174712]
建物から落下する物体は、大きな衝撃力によって歩行者に重傷を負わせる可能性がある。
FADEには18のシーンから1,881本のビデオがあり、8つの落下物カテゴリー、4つの気象条件、4つのビデオ解像度がある。
動作情報を効果的に活用するFADE-Netと呼ばれる新しい物体検出手法を開発した。
論文 参考訳(メタデータ) (2024-08-11T11:43:56Z) - Infrastructure Ombudsman: Mining Future Failure Concerns from Structural
Disaster Response [11.456416081243654]
我々は、特定のインフラの懸念を自動的に検知するインフラストラクチャ・ボンボースマンを開発した。
Reddit と YouTube から抽出した新しいタスクに対して,2662 のソーシャル Web インスタンスのファースト・オブ・ザ・キンドデータセットを提示する。
論文 参考訳(メタデータ) (2024-02-21T04:55:03Z) - Video Timeline Modeling For News Story Understanding [123.03394373132353]
我々は,ビデオタイムラインモデリングという新たな問題を提示した。
我々の目的は、特定の話題に関連する一連のビデオからビデオ関連タイムラインを作成し、話されているストーリーの内容や構造を理解しやすくすることである。
この問題は、例えばニュースストーリーの要約など、様々な現実世界のアプリケーションにおいて大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-09-23T18:24:15Z) - Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning [53.26496452886417]
本稿では,Twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterのフィードでほぼリアルタイムで実行された。
論文 参考訳(メタデータ) (2021-10-12T06:31:54Z) - Revisiting Hierarchical Approach for Persistent Long-Term Video
Prediction [55.4498466252522]
従来の手法よりも桁違いに長い予測時間を持つビデオ予測の新しい標準を設定しました。
本手法は,まず意味構造列を推定し,その後,映像から映像への変換により,画素に翻訳することにより,将来的なフレームを予測する。
本手法は,自動車運転と人間のダンスに関する3つの課題データに基づいて評価し,非常に長い時間にわたって複雑なシーン構造と動きを生成できることを実証した。
論文 参考訳(メタデータ) (2021-04-14T08:39:38Z) - MSNet: A Multilevel Instance Segmentation Network for Natural Disaster
Damage Assessment in Aerial Videos [74.22132693931145]
本研究では, ハリケーン, 洪水, 火災などの自然災害後の建物被害を効率的に評価する課題について検討する。
最初のコントリビューションは、ソーシャルメディアからユーザ生成された空中ビデオと、インスタンスレベルのビルディング損傷マスクのアノテーションで構成される、新しいデータセットである。
第二のコントリビューションはMSNetと呼ばれる新しいモデルで、新しい領域の提案ネットワーク設計を含んでいる。
論文 参考訳(メタデータ) (2020-06-30T02:23:05Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z) - Adversarial Loss for Semantic Segmentation of Aerial Imagery [12.241693880896348]
本稿では,意味的セグメンテーションにおける局所的・グローバル的文脈の理解を学習する新たな損失関数を提案する。
DeepLab v3+ネットワークに新たに提案された損失関数は、マサチューセッツの建物データセットの最先端結果を取得する。
論文 参考訳(メタデータ) (2020-01-13T14:22:54Z) - Generative Memorize-Then-Recall framework for low bit-rate Surveillance
Video Compression [29.716388163447345]
グループ・オブ・ピクチャー(GoP)のサーベイランス・ビデオ機能(メモリ)と各フレーム(キュー)のスケルトン
メモリは、GoPの内部に現れるオブジェクトの外観を記述するために、GoP内部のフレームを逐次、繰り返しのニューラルコーディングに入力することで得られる。
実験結果から,本手法は外観と骨格に基づく現実的な再構築を効果的に行うことが示唆された。
論文 参考訳(メタデータ) (2019-12-30T08:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。