論文の概要: The autonomous hidden camera crew
- arxiv url: http://arxiv.org/abs/2007.04657v1
- Date: Thu, 9 Jul 2020 09:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:44:31.807415
- Title: The autonomous hidden camera crew
- Title(参考訳): 自律的な隠しカメラクルー
- Authors: Timothy Callemein, Wiebe Van Ranst and Toon Goedem\'e
- Abstract要約: 本論文は, 日常生活において, 長期(月~年)にわたって, 人々をフォローするためのアプローチを提案する。
これを実現するために、人の家に隠された無人撮影用カメラを使用する。
まず,ビデオスイッチ行列をインテリジェントに制御することで,記録データ量を制限するシステムを構築した。
第2に、自動でカメラを制御して仮想カメラマンを作成し、撮影を楽しませます。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reality TV shows that follow people in their day-to-day lives are not a new
concept. However, the traditional methods used in the industry require a lot of
manual labour and need the presence of at least one physical camera man.
Because of this, the subjects tend to behave differently when they are aware of
being recorded. This paper will present an approach to follow people in their
day-to-day lives, for long periods of time (months to years), while being as
unobtrusive as possible. To do this, we use unmanned cinematographically-aware
cameras hidden in people's houses. Our contribution in this paper is twofold:
First, we create a system to limit the amount of recorded data by intelligently
controlling a video switch matrix, in combination with a multi-channel
recorder. Second, we create a virtual camera man by controlling a PTZ camera to
automatically make cinematographically pleasing shots. Throughout this paper,
we worked closely with a real camera crew. This enabled us to compare the
results of our system to the work of trained professionals.
- Abstract(参考訳): 現実的なテレビ番組では、日々の生活の中で人をフォローすることは新しい概念ではない。
しかし、業界で使われる伝統的な方法には多くの手作業が必要であり、少なくとも1人の物理的カメラマンの存在が必要である。
このため、被写体は記録されていることに気付くと異なる振る舞いをする傾向がある。
本論文は, 日常生活において, 長期間(月~年)にわたって, 可能な限り控えめでありながら, 人々をフォローするためのアプローチを提案する。
これを実現するために、人の家に隠された無人撮影用カメラを使用する。
まず、マルチチャネルレコーダと組み合わせて、ビデオスイッチマトリックスをインテリジェントに制御することにより、記録データ量を制限するシステムを構築する。
第2に、PTZカメラを制御して仮想カメラマンを作成し、自動的に撮影を楽しませます。
この論文を通して、私たちは本物のカメラクルーと密接に協力しました。
これにより、我々のシステムの結果を訓練された専門家の仕事と比較できるようになりました。
関連論文リスト
- ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - Multi-view Disentanglement for Reinforcement Learning with Multiple Cameras [10.31844915748746]
自己中心型カメラを含む複数のカメラを同時に訓練することで、異なるカメラ視点からの情報を活用して強化学習(RL)の性能を向上させることができる。
本稿では,複数のカメラを用いたマルチビューディスタングル(MVD)を提案し,トレーニングセットから任意のカメラに一般化するカメラ数の削減に頑健なポリシーを学習する。
我々のアプローチは、複数のカメラから不整合表現を学習するRLのための自己教師付き補助タスクであり、全カメラにまたがって一台のカメラへの一般化を可能にする共有表現と、カメラであるプライベート表現とを備えている。
論文 参考訳(メタデータ) (2024-04-22T10:21:41Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - SmartMocap: Joint Estimation of Human and Camera Motion using
Uncalibrated RGB Cameras [49.110201064166915]
複数のRGBカメラからのマーカーレス人間のモーションキャプチャ(モキャップ)は、広く研究されている問題である。
既存の方法は、モキャップシステムの基準フレームとして機能するスタティックカメラに対して、キャリブレーションされたカメラを必要とするか、あるいはそれらをキャリブレーションする必要がある。
複数の静止・移動可能なRGBカメラを用いたモキャップ方式を提案する。
論文 参考訳(メタデータ) (2022-09-28T08:21:04Z) - PRNU Based Source Camera Identification for Webcam and Smartphone Videos [137.6408511310322]
このコミュニケーションは、Webカメラ/スマートフォンビデオのソースカメラ(SCI: Source Camera Identification)を特定するためにカメラセンサ指紋を使用する画像法医学の応用に関するものである。
論文 参考訳(メタデータ) (2022-01-27T18:57:14Z) - AirPose: Multi-View Fusion Network for Aerial 3D Human Pose and Shape
Estimation [51.17610485589701]
本研究では,非構造屋外環境のための新しいマーカーレス3次元モーションキャプチャ(MoCap)システムを提案する。
AirPoseは複数の無人飛行カメラで撮影された画像を使って人間のポーズと形状を推定する。
AirPose自体は、事前校正に頼らずに、人のカメラを校正する。
論文 参考訳(メタデータ) (2022-01-20T09:46:20Z) - Look Closer: Bridging Egocentric and Third-Person Views with
Transformers for Robotic Manipulation [15.632809977544907]
視覚フィードバックから精度に基づく操作タスクを解くことは、従来のロボットシステムに必要なエンジニアリング労力を大幅に削減する可能性がある。
ロボットの手首に装着した3人称カメラと自我中心カメラの両方から視覚フィードバックを受けるロボット操作のための設定を提案する。
また,両カメラの視覚情報を効果的に融合するために,クロスビューアテンション機構を備えたトランスフォーマーを提案する。
論文 参考訳(メタデータ) (2022-01-19T18:39:03Z) - Batteries, camera, action! Learning a semantic control space for
expressive robot cinematography [15.895161373307378]
我々は,意味空間における複雑なカメラ位置決めパラメータの編集を可能にする,データ駆動型フレームワークを開発した。
まず,写真実写シミュレータにおいて,多様な撮影範囲を持つ映像クリップのデータベースを作成する。
クラウドソーシングフレームワークには何百人もの参加者が参加して,各クリップのセマンティック記述子セットのスコアを取得しています。
論文 参考訳(メタデータ) (2020-11-19T21:56:53Z) - Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography [9.870369982132678]
ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
論文 参考訳(メタデータ) (2020-11-10T22:43:25Z) - Rethinking the Distribution Gap of Person Re-identification with
Camera-based Batch Normalization [90.9485099181197]
本稿では,従来のReID手法の動作機構を再考する。
我々は、すべてのカメラの画像データを同じ部分空間に落とすように強制する。
幅広いReIDタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-01-23T17:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。