論文の概要: BlendScape: Enabling End-User Customization of Video-Conferencing Environments through Generative AI
- arxiv url: http://arxiv.org/abs/2403.13947v2
- Date: Tue, 01 Oct 2024 12:07:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:31:59.106466
- Title: BlendScape: Enabling End-User Customization of Video-Conferencing Environments through Generative AI
- Title(参考訳): BlendScape: 生成AIによるビデオ会議環境のエンドユーザカスタマイズの実現
- Authors: Shwetha Rajaram, Nels Numan, Balasaravanan Thoravi Kumaravel, Nicolai Marquardt, Andrew D. Wilson,
- Abstract要約: BlendScapeは、ビデオ会議参加者がミーティングコンテキストに合わせて環境を調整するためのレンダリングとコンポジションシステムである。
BlendScapeは、ユーザの物理的背景とデジタル背景を統合された環境にブレンドすることで、タスク空間の柔軟な表現をサポートする。
- 参考スコア(独自算出の注目度): 19.06858242647237
- License:
- Abstract: Today's video-conferencing tools support a rich range of professional and social activities, but their generic meeting environments cannot be dynamically adapted to align with distributed collaborators' needs. To enable end-user customization, we developed BlendScape, a rendering and composition system for video-conferencing participants to tailor environments to their meeting context by leveraging AI image generation techniques. BlendScape supports flexible representations of task spaces by blending users' physical or digital backgrounds into unified environments and implements multimodal interaction techniques to steer the generation. Through an exploratory study with 15 end-users, we investigated whether and how they would find value in using generative AI to customize video-conferencing environments. Participants envisioned using a system like BlendScape to facilitate collaborative activities in the future, but required further controls to mitigate distracting or unrealistic visual elements. We implemented scenarios to demonstrate BlendScape's expressiveness for supporting environment design strategies from prior work and propose composition techniques to improve the quality of environments.
- Abstract(参考訳): 今日のビデオ会議ツールは、幅広い専門家や社会活動をサポートしているが、彼らの一般的な会議環境は、分散協力者のニーズに合わせて動的に適応することはできない。
エンドユーザのカスタマイズを可能にするため,AI画像生成技術を活用することで,ビデオ会議参加者がミーティング状況に合わせて環境をカスタマイズするためのレンダリング・コンポジションシステムであるBlendScapeを開発した。
BlendScapeは、ユーザの物理的背景とデジタル背景を統一された環境にブレンドすることで、タスク空間の柔軟な表現をサポートし、生成を制御するためのマルチモーダルインタラクション技術を実装している。
15人のエンドユーザーを対象にした探索的研究を通じて、ビデオ会議環境をカスタマイズするために生成AIを使用することの価値と方法を検討した。
参加者は、BlendScapeのようなシステムを使って、将来的なコラボレーション活動を促進することを想定していたが、邪魔な要素や非現実的な視覚要素を緩和するためには、さらなるコントロールが必要だった。
我々は,BlendScapeの環境設計戦略を先行作業から支援するための表現性を示すシナリオを実装し,環境の質を向上させるための合成手法を提案する。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - SpaceBlender: Creating Context-Rich Collaborative Spaces Through Generative 3D Scene Blending [19.06858242647237]
ユーザが提供する2Dイメージを,コンテキストに富んだ3D環境に変換するパイプラインであるSpaceBlenderを紹介する。
参加者はSpaceBlenderが提供する親しみやすさとコンテキストを高く評価したが、生成環境の複雑さは注目された。
そこで我々は,パイプライン改善の方向性を提案し,異なるシナリオに対するブレンド空間の価値と設計について議論する。
論文 参考訳(メタデータ) (2024-09-20T22:27:31Z) - Enhancing Graph Representation of the Environment through Local and
Cloud Computation [2.9465623430708905]
複数の情報源からロボット環境のセマンティックな表現を提供するグラフベースの表現を提案する。
環境から情報を取得するために、このフレームワークは古典的なコンピュータビジョンツールと現代のコンピュータビジョンクラウドサービスを組み合わせる。
提案手法により、小さなオブジェクトも処理し、環境の意味表現に統合することが可能になる。
論文 参考訳(メタデータ) (2023-09-22T08:05:32Z) - Learning Environment-Aware Affordance for 3D Articulated Object
Manipulation under Occlusions [9.400505355134728]
本稿では,オブジェクトレベルの動作可能な事前条件と環境制約の両方を組み込んだ環境対応アベイランスフレームワークを提案する。
本稿では,1つのオクルーダーを含むシーンを学習し,複雑なオクルーダーの組み合わせでシーンに一般化できる新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T08:24:32Z) - Mutual Scene Synthesis for Mixed Reality Telepresence [4.504833177846264]
混合現実テレプレゼンス(Mixed Reality Telepresence)により、参加者は2Dスクリーンベースのコミュニケーション方法では以前は不可能だった幅広い活動に参加することができる。
本稿では,参加者の空間を入力として捉え,各参加者の局所的な空間の機能に対応する仮想合成シーンを生成する,新たな相互シーン合成手法を提案する。
本手法は,相互関数最適化モジュールと深層学習条件付きシーン拡張プロセスを組み合わせることで,複合現実テレプレゼンスシナリオの全参加者に対して相互に,物理的にアクセス可能なシーンを生成する。
論文 参考訳(メタデータ) (2022-04-01T02:08:11Z) - Exploring Intra- and Inter-Video Relation for Surgical Semantic Scene
Segmentation [58.74791043631219]
セグメンテーション性能を高めるために,映像内および映像間関係を補完する新しいフレームワークSTswinCLを提案する。
本研究では,EndoVis18 ChallengeとCaDISデータセットを含む2つの公開手術ビデオベンチマークに対するアプローチを広く検証する。
実験により,従来の最先端手法を一貫して超越した提案手法の有望な性能を示す。
論文 参考訳(メタデータ) (2022-03-29T05:52:23Z) - Composing Complex and Hybrid AI Solutions [52.00820391621739]
一般的なAIアプリケーションで上記の機能を実現するためのAcumosシステムの拡張について述べる。
当社の拡張機能には、gRPC/Protobufインターフェースによるより汎用的なコンポーネントのサポートが含まれています。
デプロイ可能なソリューションとそのインターフェースの例を提供する。
論文 参考訳(メタデータ) (2022-02-25T08:57:06Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Environment Predictive Coding for Embodied Agents [92.31905063609082]
本稿では,環境レベルの表現を具体化エージェントに学習する自己教師型手法である環境予測符号化を導入する。
GibsonとMatterport3Dのフォトリアリスティックな3D環境に関する実験により、我々の手法は、限られた経験の予算しか持たない課題において、最先端の課題よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-02-03T23:43:16Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - SceneGen: Generative Contextual Scene Augmentation using Scene Graph
Priors [3.1969855247377827]
SceneGenは、既存のシーン内の仮想オブジェクトの位置と方向を予測する、生成的コンテキスト拡張フレームワークである。
SceneGenはセグメンテーションされたシーンを入力として、仮想コンテンツを置くための位置と向きの確率マップを出力する。
オブジェクト, オブジェクト群, 部屋間の明確な位相特性をカプセル化した空間的シーングラフ表現を定式化する。
そこで本研究では,オブジェクトをリアルタイムに拡張可能な拡張現実アプリケーションを開発した。
論文 参考訳(メタデータ) (2020-09-25T18:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。