論文の概要: Inferring Nighttime Satellite Imagery from Human Mobility
- arxiv url: http://arxiv.org/abs/2003.07691v1
- Date: Fri, 28 Feb 2020 14:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 07:33:58.979227
- Title: Inferring Nighttime Satellite Imagery from Human Mobility
- Title(参考訳): 人体移動による夜間衛星画像の推定
- Authors: Brian Dickinson, Gourab Ghoshal, Xerxes Dotiwalla, Adam Sadilek, Henry
Kautz
- Abstract要約: 夜間の衛星画像は、幅広い社会経済的要因を研究するための一様でグローバルなデータ源として、何十年も使われてきた。
最近、地球上の別の情報源が、同様のグローバルなカバレッジを持つデータ、匿名および集約されたスマートフォンの位置を生成している。
このデータは、生産する光ではなく、人や人口の移動パターンを計測するものです。
- 参考スコア(独自算出の注目度): 3.206489953505937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nighttime lights satellite imagery has been used for decades as a uniform,
global source of data for studying a wide range of socioeconomic factors.
Recently, another more terrestrial source is producing data with similarly
uniform global coverage: anonymous and aggregated smart phone location. This
data, which measures the movement patterns of people and populations rather
than the light they produce, could prove just as valuable in decades to come.
In fact, since human mobility is far more directly related to the socioeconomic
variables being predicted, it has an even greater potential. Additionally,
since cell phone locations can be aggregated in real time while preserving
individual user privacy, it will be possible to conduct studies that would
previously have been impossible because they require data from the present. Of
course, it will take quite some time to establish the new techniques necessary
to apply human mobility data to problems traditionally studied with satellite
imagery and to conceptualize and develop new real time applications. In this
study we demonstrate that it is possible to accelerate this process by
inferring artificial nighttime satellite imagery from human mobility data,
while maintaining a strong differential privacy guarantee. We also show that
these artificial maps can be used to infer socioeconomic variables, often with
greater accuracy than using actual satellite imagery. Along the way, we find
that the relationship between mobility and light emissions is both nonlinear
and varies considerably around the globe. Finally, we show that models based on
human mobility can significantly improve our understanding of society at a
global scale.
- Abstract(参考訳): ナイトライトの衛星画像は数十年間、幅広い社会経済的要因を研究するための一様でグローバルなデータソースとして使われてきた。
最近、地球上の別の情報源が、同様のグローバルなカバレッジを持つデータ、匿名と集約されたスマートフォンの位置を生成している。
このデータは、生成する光よりも、人々や人口の動きのパターンを計測し、今後数十年で同じ価値を証明できるだろう。
実際、人間の移動は予測される社会経済変数とより直接的に関連しているため、さらに大きな可能性を秘めている。
さらに、個人のプライバシーを維持しながら携帯電話の位置情報をリアルタイムで集約することができるため、現在からのデータを必要とするため、これまで不可能だった研究を行うことが可能となる。
もちろん、衛星画像で研究されている問題に人間の移動データを応用し、新しいリアルタイムアプリケーションの概念化と開発に必要な新しい技術を確立するには、かなり時間がかかるだろう。
本研究では、人間の移動データから人工夜間衛星画像を推定し、強力な差分プライバシー保証を維持しながら、このプロセスを加速できることを実証する。
また,これらの人工地図を用いて,実際の衛星画像よりも高い精度で社会経済変数を推定できることも示す。
その過程で、モビリティと光の放出の関係は非線形であり、地球上ではかなり異なることが判明した。
最後に,人間の移動性に基づくモデルが,世界規模で社会の理解を著しく改善できることを示す。
関連論文リスト
- Deep Activity Model: A Generative Approach for Human Mobility Pattern Synthesis [11.90100976089832]
我々は,人間の移動性モデリングと合成のための新しい生成的深層学習手法を開発した。
オープンソースのデータを使って、アクティビティパターンとロケーショントラジェクトリの両方を組み込む。
モデルはローカルデータで微調整できるため、さまざまな領域にわたるモビリティパターンを正確に表現することができる。
論文 参考訳(メタデータ) (2024-05-24T02:04:10Z) - Event detection from novel data sources: Leveraging satellite imagery
alongside GPS traces [0.9075220953694432]
本稿では,衛星画像とプライバシ強化モバイルデータを組み合わせた新しいデータ融合手法を提案する。
提案手法の適用例としては,農村部における小規模災害(竜巻,山火事,洪水など)の検出,遠隔地における失われたハイカーの捜索・救助活動の強化,戦時国家における活発な紛争地域と人口移動の特定などが挙げられる。
論文 参考訳(メタデータ) (2024-01-19T18:59:37Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - On Inferring User Socioeconomic Status with Mobility Records [61.0966646857356]
本稿では,DeepSEIと呼ばれる,社会経済に配慮したディープモデルを提案する。
DeepSEIモデルはディープネットワークとリカレントネットワークと呼ばれる2つのネットワークを組み込んでいる。
実際の移動記録データ、POIデータ、住宅価格データについて広範な実験を行う。
論文 参考訳(メタデータ) (2022-11-15T15:07:45Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Generating synthetic mobility data for a realistic population with RNNs
to improve utility and privacy [3.3918638314432936]
本稿では, ディープリカレントニューラルネットワーク(RNN)を用いた合成モビリティデータ生成システムを提案する。
本システムは, 個体群分布を入力として, 対応する合成個体群の移動トレースを生成する。
生成したモビリティデータは,個々のレベルでの実際のデータから変化しながら,実際のデータの特徴を保っていることを示す。
論文 参考訳(メタデータ) (2022-01-04T13:58:22Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Biases in human mobility data impact epidemic modeling [0.0]
携帯電話の不正アクセスと不平等使用による2種類のバイアスを同定する。
我々は、高重量個体が過剰に表現されているすべての調査データセットにおいて、データ生成バイアスの証拠を見つける。
このスキューを緩和するために、データをデバイアスするフレームワークを提案し、代表性を高めるためにいかに簡単なテクニックが使えるかを示す。
論文 参考訳(メタデータ) (2021-12-23T13:20:54Z) - Urban Sensing based on Mobile Phone Data: Approaches, Applications and
Challenges [67.71975391801257]
モバイルデータ分析における多くの関心は、人間とその行動に関連している。
本研究の目的は,携帯電話データから知識を発見するために実装された手法や手法をレビューすることである。
論文 参考訳(メタデータ) (2020-08-29T15:14:03Z) - Understanding individual behaviour: from virtual to physical patterns [5.991701520084448]
8ヶ月にわたる40,000人のモビリティとアプリケーション利用状況を分析し,議論する。
物理的な空間における人々のモビリティと、スマートフォンにおけるアプリからアプリへの移動方法との間には、驚くべき類似点があります。
これらの発見は、人間中心のAIシステムを構築する可能性と課題について、議論を深める上で不可欠であると考えています。
論文 参考訳(メタデータ) (2020-02-13T14:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。