論文の概要: BlendScape: Enabling Unified and Personalized Video-Conferencing Environments through Generative AI
- arxiv url: http://arxiv.org/abs/2403.13947v1
- Date: Wed, 20 Mar 2024 19:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 17:59:26.281337
- Title: BlendScape: Enabling Unified and Personalized Video-Conferencing Environments through Generative AI
- Title(参考訳): BlendScape: 生成AIによる統一およびパーソナライズされたビデオ会議環境の実現
- Authors: Shwetha Rajaram, Nels Numan, Balasaravanan Thoravi Kumaravel, Nicolai Marquardt, Andrew D. Wilson,
- Abstract要約: BlendScapeは、参加者がコラボレーションコンテキストに合わせてビデオ会議環境を構築するためのシステムである。
BlendScapeは、ユーザの物理的あるいは仮想的なバックグラウンドを統一された環境にブレンドすることで、タスク空間の柔軟な表現をサポートする。
- 参考スコア(独自算出の注目度): 19.06858242647237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's video-conferencing tools support a rich range of professional and social activities, but their generic, grid-based environments cannot be easily adapted to meet the varying needs of distributed collaborators. To enable end-user customization, we developed BlendScape, a system for meeting participants to compose video-conferencing environments tailored to their collaboration context by leveraging AI image generation techniques. BlendScape supports flexible representations of task spaces by blending users' physical or virtual backgrounds into unified environments and implements multimodal interaction techniques to steer the generation. Through an evaluation with 15 end-users, we investigated their customization preferences for work and social scenarios. Participants could rapidly express their design intentions with BlendScape and envisioned using the system to structure collaboration in future meetings, but experienced challenges with preventing distracting elements. We implement scenarios to demonstrate BlendScape's expressiveness in supporting distributed collaboration techniques from prior work and propose composition techniques to improve the quality of environments.
- Abstract(参考訳): 今日のビデオ会議ツールは、さまざまなプロフェッショナルや社会的活動をサポートするが、その汎用的なグリッドベースの環境は、分散コラボレータのさまざまなニーズを満たすために、容易に適応できない。
エンドユーザーによるカスタマイズを実現するため,AI画像生成技術を活用して参加者にビデオ会議環境を構築するシステムであるBlendScapeを開発した。
BlendScapeは、ユーザの物理的あるいは仮想的な背景を統一された環境にブレンドすることで、タスク空間の柔軟な表現をサポートし、生成を制御するためのマルチモーダルインタラクション技術を実装している。
エンドユーザー15名を対象に,作業シナリオと社会的シナリオのカスタマイズ選好について検討した。
参加者はBlendScapeでデザインの意図を迅速に表現することができ、将来のミーティングでコラボレーションを構築するためにシステムを使用することを想定しました。
我々は,BlendScapeが先行作業から分散コラボレーション技術をサポートするための表現力を示すシナリオを実装し,環境の質を向上させるための合成技術を提案する。
関連論文リスト
- LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Modular Customizable ROS-Based Framework for Rapid Development of Social
Robots [3.6622737533847936]
本稿では、このニーズに対処するオープンソースのフレームワークである、SROS(Socially-Interactive Robot Software Platform)について述べる。
特殊な知覚と対話のスキルは、任意のロボットに再利用可能な配置のためのROSサービスとして実装されている。
コンピュータビジョン, 音声処理, GPT2 自動補完音声をプラグアンドプレイ ROS サービスとして実装し, SROS のコア技術の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-11-27T12:54:20Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object
Detection [75.22007160699948]
本稿では,不明瞭な画像や映像を観察する際の人間の行動を模倣する,効果的な統合型ピラミッドネットワークを提案する。
具体的には、差別的な混合スケールのセマンティクスを学習するために、ズーム戦略を用いる。
我々のタスクフレンドリーなフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Enhancing Graph Representation of the Environment through Local and
Cloud Computation [2.9465623430708905]
複数の情報源からロボット環境のセマンティックな表現を提供するグラフベースの表現を提案する。
環境から情報を取得するために、このフレームワークは古典的なコンピュータビジョンツールと現代のコンピュータビジョンクラウドサービスを組み合わせる。
提案手法により、小さなオブジェクトも処理し、環境の意味表現に統合することが可能になる。
論文 参考訳(メタデータ) (2023-09-22T08:05:32Z) - Learning Environment-Aware Affordance for 3D Articulated Object
Manipulation under Occlusions [9.400505355134728]
本稿では,オブジェクトレベルの動作可能な事前条件と環境制約の両方を組み込んだ環境対応アベイランスフレームワークを提案する。
本稿では,1つのオクルーダーを含むシーンを学習し,複雑なオクルーダーの組み合わせでシーンに一般化できる新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T08:24:32Z) - InstructDiffusion: A Generalist Modeling Interface for Vision Tasks [52.981128371910266]
InstructDiffusionはコンピュータビジョンタスクを人間の指示に合わせるためのフレームワークである。
InstructDiffusionは、タスクの理解や生成タスクなど、さまざまなビジョンタスクを処理できる。
目に見えないタスクを処理し、新しいデータセットで前のメソッドより優れていることも示しています。
論文 参考訳(メタデータ) (2023-09-07T17:56:57Z) - Mutual Scene Synthesis for Mixed Reality Telepresence [4.504833177846264]
混合現実テレプレゼンス(Mixed Reality Telepresence)により、参加者は2Dスクリーンベースのコミュニケーション方法では以前は不可能だった幅広い活動に参加することができる。
本稿では,参加者の空間を入力として捉え,各参加者の局所的な空間の機能に対応する仮想合成シーンを生成する,新たな相互シーン合成手法を提案する。
本手法は,相互関数最適化モジュールと深層学習条件付きシーン拡張プロセスを組み合わせることで,複合現実テレプレゼンスシナリオの全参加者に対して相互に,物理的にアクセス可能なシーンを生成する。
論文 参考訳(メタデータ) (2022-04-01T02:08:11Z) - Composing Complex and Hybrid AI Solutions [52.00820391621739]
一般的なAIアプリケーションで上記の機能を実現するためのAcumosシステムの拡張について述べる。
当社の拡張機能には、gRPC/Protobufインターフェースによるより汎用的なコンポーネントのサポートが含まれています。
デプロイ可能なソリューションとそのインターフェースの例を提供する。
論文 参考訳(メタデータ) (2022-02-25T08:57:06Z) - A Survey on Synchronous Augmented, Virtual and Mixed Reality Remote
Collaboration Systems [81.0723729946659]
この作業の焦点は、遠くからのコラボレーションの同期にある。
100以上の出版物と25の商業システムを含む、合計82の遠隔共同作業システムについて論じている。
論文 参考訳(メタデータ) (2021-02-11T13:33:51Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Designing Interaction for Multi-agent Cooperative System in an Office
Environment [2.2430284460908605]
未来のインテリジェントシステムには、モバイルロボット、スマートホームインフラストラクチャ、パーソナルデバイスなど、非常に多様な種類の人工知能が含まれている。
本稿では,知的サイバー物理システム(ICPS)のヒューマンマシンインタフェースの設計と実装について述べる。
ICPS(ICPS)は、作業環境におけるロボットや他のスマートデバイスの多目的協調システムである。
論文 参考訳(メタデータ) (2020-02-15T17:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。