論文の概要: Exploring Descriptions of Movement Through Geovisual Analytics
- arxiv url: http://arxiv.org/abs/2204.09588v1
- Date: Tue, 1 Mar 2022 18:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 09:57:36.609817
- Title: Exploring Descriptions of Movement Through Geovisual Analytics
- Title(参考訳): 地形分析による移動記述の探索
- Authors: Scott Pezanowski, Prasenjit Mitra, Alan M. MacEachren
- Abstract要約: 機械学習とルールに基づく動き関連情報抽出と最先端の可視化技術を組み合わせたGeoMovementを提案する。
動きの描写とともに、我々のツールは動きの欠如を抽出し提示することができる。
- 参考スコア(独自算出の注目度): 2.813813570843999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensemaking using automatically extracted information from text is a
challenging problem. In this paper, we address a specific type of information
extraction, namely extracting information related to descriptions of movement.
Aggregating and understanding information related to descriptions of movement
and lack of movement specified in text can lead to an improved understanding
and sensemaking of movement phenomena of various types, e.g., migration of
people and animals, impediments to travel due to COVID-19, etc. We present
GeoMovement, a system that is based on combining machine learning and
rule-based extraction of movement-related information with state-of-the-art
visualization techniques. Along with the depiction of movement, our tool can
extract and present a lack of movement. Very little prior work exists on
automatically extracting descriptions of movement, especially negation and
movement. Apart from addressing these, GeoMovement also provides a novel
integrated framework for combining these extraction modules with visualization.
We include two systematic case studies of GeoMovement that show how humans can
derive meaningful geographic movement information. GeoMovement can complement
precise movement data, e.g., obtained using sensors, or be used by itself when
precise data is unavailable.
- Abstract(参考訳): テキストから自動抽出した情報を用いたセンスメイキングは難しい課題である。
本稿では,移動記述に関する情報を抽出する,特定のタイプの情報抽出について述べる。
テキスト中の移動の記述や運動の欠如に関する情報を集約して理解することは、例えば、人と動物の移動、新型コロナウイルスによる旅行障害など、様々な種類の移動現象の理解と認識の改善につながる可能性がある。
本稿では,機械学習と規則に基づく移動関連情報の抽出と最先端可視化技術を組み合わせたgeomovementを提案する。
動きの描写とともに、我々のツールは動きの欠如を抽出し提示することができる。
ムーブメント、特に否定とムーブメントの記述を自動的に抽出する作業は、非常に少ない。
これらに対処する以外に、GeoMovementはこれらの抽出モジュールと視覚化を組み合わせるための新しい統合フレームワークも提供する。
我々は,人間がどのようにして有意義な地理的移動情報を導出できるかを示す,ジオムーメントの2つの体系的なケーススタディを含む。
GeoMovementは、例えばセンサーを使って取得した正確な動きデータを補完したり、正確なデータが利用できないときに自身で使用することができる。
関連論文リスト
- Diving Deep into the Motion Representation of Video-Text Models [12.197093960700187]
GPT-4の生成した動作記述は、アクティビティのきめ細かい動作記述をキャプチャする。
動作記述の検索作業におけるビデオテキストモデルの評価を行った。
論文 参考訳(メタデータ) (2024-06-07T16:46:10Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - Motion Generation from Fine-grained Textual Descriptions [29.033358642532722]
我々は,ファインヒューマンML3Dという微細なテキスト記述を専門とする大規模言語移動データセットを構築した。
新しいテキスト2モーションモデルであるFineMotionDiffuseを設計し、微細なテキスト情報をフル活用する。
FineMotionDiffuseはFinHumanML3Dで訓練し,FIDを0.38の差で改善した。
論文 参考訳(メタデータ) (2024-03-20T11:38:30Z) - LivePhoto: Real Image Animation with Text-guided Motion Control [51.31418077586208]
この研究はLivePhotoという名前の実用的なシステムを示し、ユーザーが興味のある画像をテキスト記述でアニメーション化することができる。
まず、よく学習されたテキスト・ツー・イメージ・ジェネレータ(すなわち、安定拡散)がさらに入力として画像を取るのを助ける強力なベースラインを確立する。
次に、時間的モデリングのためのモーションモジュールを改良されたジェネレータに装備し、テキストとモーションのリンクをより良くするための、慎重に設計されたトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-12-05T17:59:52Z) - SemanticBoost: Elevating Motion Generation with Augmented Textual Cues [73.83255805408126]
我々のフレームワークはセマンティック・エンハンスメント・モジュールとコンテキスト調整型モーション・デノイザ(CAMD)から構成されている。
CAMDアプローチは、高品質でセマンティックに一貫性のあるモーションシーケンスを生成するための全エンコンパスソリューションを提供する。
実験の結果,SemanticBoostは拡散法として自己回帰法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-31T09:58:11Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - Recognition of Implicit Geographic Movement in Text [3.3241479835797123]
人間、動物、その他の現象の地理的移動を分析することは、研究の領域の増大である。
我々は地理的な動きを記述しているとラベル付けされた文のコーパスを作成しました。
我々は,より多くのラベルを予測するために,手によるラベル付け,群衆投票による確認,機械学習を用いた反復的なプロセスを開発した。
論文 参考訳(メタデータ) (2022-01-30T12:22:55Z) - Differentiating Geographic Movement Described in Text Documents [2.813813570843999]
テキストで記述された地理的移動の解釈がいかに難しいかを示す。
我々は、人間が1つの運動記述と別の運動記述を区別するために使用する運動記述の複数の重要な特徴を同定する。
本研究は,テキスト記述形式における地理的移動に関する未使用情報の重要な特徴の理解の向上に寄与する。
論文 参考訳(メタデータ) (2022-01-12T11:49:13Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Affective Movement Generation using Laban Effort and Shape and Hidden
Markov Models [6.181642248900806]
本稿では,1)ラベル移動解析(LMA)と2)隠れマルコフモデリングという2つの運動抽象化を用いた自動感情運動生成手法を提案する。
LMAは運動の運動的特徴と表現的特徴を抽象的に表現するための体系的なツールを提供する。
特定された動作のHMM抽象化を取得し、所望の動作経路を用いて、対象の感情を伝達する新たな動きを生成する。
評価された自動認識モデルとユーザスタディを用いて、認識可能な目標感情を持つ動きを生成するための提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-06-10T21:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。