論文の概要: CB2: Collaborative Natural Language Interaction Research Platform
- arxiv url: http://arxiv.org/abs/2303.08127v1
- Date: Tue, 14 Mar 2023 17:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 13:37:52.338989
- Title: CB2: Collaborative Natural Language Interaction Research Platform
- Title(参考訳): CB2: 共同自然言語インタラクション研究プラットフォーム
- Authors: Jacob Sharf, Mustafa Omer Gul, Yoav Artzi
- Abstract要約: CB2は、タスク指向のシナリオで協調的な自然言語インタラクションを研究するためのマルチエージェントプラットフォームである。
これには、3Dゲーム環境、トレーニングされたモデルを人間のエージェントに提供するように設計されたバックエンドサーバ、スケーラブルな研究を可能にするさまざまなツールとプロセスが含まれている。
- 参考スコア(独自算出の注目度): 14.887081253412346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CB2 is a multi-agent platform to study collaborative natural language
interaction in a grounded task-oriented scenario. It includes a 3D game
environment, a backend server designed to serve trained models to human agents,
and various tools and processes to enable scalable studies. We deploy CB2 at
https://cb2.ai as a system demonstration with a learned instruction following
model.
- Abstract(参考訳): CB2はタスク指向のシナリオで協調的な自然言語インタラクションを研究するマルチエージェントプラットフォームである。
3dゲーム環境、トレーニングされたモデルを人間エージェントに提供するように設計されたバックエンドサーバ、スケーラブルな研究を可能にするためのさまざまなツールやプロセスが含まれている。
我々は CB2 を https://cb2.ai にデプロイし、学習した命令に従うモデルでシステムデモを行う。
関連論文リスト
- An Interactive Agent Foundation Model [50.50659114031731]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Multimodal Embodied Interactive Agent for Cafe Scene [86.81802927029976]
本稿では,自然言語で表現されたハイレベルなタスクを実行可能なアクションのシーケンスに変換するための,MEIA(Multimodal Embodied Interactive Agent)を提案する。
具体的には,シーンの視覚的記憶を介し,大規模モデルとの組込み制御を容易にする,新しいMultimodal Environment Memory (MEM) モジュールを提案する。
論文 参考訳(メタデータ) (2024-02-01T02:43:20Z) - OpenAgents: An Open Platform for Language Agents in the Wild [71.16800991568677]
OpenAgentsは、日々の生活の中で言語エージェントを使い、ホストするためのオープンなプラットフォームです。
我々は課題と機会を解明し、現実世界の言語エージェントの将来の研究と開発の基礎を築きたいと考えています。
論文 参考訳(メタデータ) (2023-10-16T17:54:53Z) - Unified Human-Scene Interaction via Prompted Chain-of-Contacts [64.54156041189324]
HSI(Human-Scene Interaction)は、AIや仮想現実といった分野において重要なコンポーネントである。
本稿では,言語コマンドによる多様なインタラクションの統一制御を支援する統一型HSIフレームワークUniHSIを提案する。
論文 参考訳(メタデータ) (2023-09-14T17:59:49Z) - RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic
Control [140.48218261864153]
本研究では,インターネット規模のデータに基づいて学習した視覚言語モデルを,エンドツーエンドのロボット制御に直接組み込む方法について検討する。
提案手法は,インターネット規模のトレーニングから,RT-2による創発的能力の獲得を可能にした。
論文 参考訳(メタデータ) (2023-07-28T21:18:02Z) - Instruct2Act: Mapping Multi-modality Instructions to Robotic Actions
with Large Language Model [63.66204449776262]
Instruct2Actは、ロボット操作タスクのシーケンシャルアクションにマルチモーダル命令をマッピングするフレームワークである。
我々のアプローチは、様々な命令のモダリティや入力タイプを調節する上で、調整可能で柔軟なものである。
我々のゼロショット法は、いくつかのタスクにおいて、最先端の学習ベースのポリシーよりも優れていた。
論文 参考訳(メタデータ) (2023-05-18T17:59:49Z) - BlenderBot 3: a deployed conversational agent that continually learns to
responsibly engage [41.87861654035883]
BlenderBot 3は、インターネットへのアクセスと長期記憶による対話をオープンドメインで行うことができる対話モデルである。
モデルウェイトとコードの両方をリリースし、また、オーガニックユーザと対話するために、モデルを公開Webページにデプロイしました。
論文 参考訳(メタデータ) (2022-08-05T14:20:46Z) - Learning Flexible Translation between Robot Actions and Language
Descriptions [16.538887534958555]
本稿では,ロボット動作と言語記述とのフレキシブルな変換のためのペアゲートオートエンコーダ(PGAE)を提案する。
我々は、各アクションを、翻訳方向に関する信号を含む適切な記述とペアリングすることで、エンド・ツー・エンドでモデルを訓練する。
事前訓練された言語モデルを言語エンコーダとして使用するオプションにより、我々のモデルは目に見えない自然言語入力を認識することができる。
論文 参考訳(メタデータ) (2022-07-15T12:37:05Z) - Two Approaches to Building Collaborative, Task-Oriented Dialog Agents
through Self-Play [18.88705140683795]
タスク指向のダイアログシステムは、Wizard-of-Ozインタフェースから収集されたような人間/人間のダイアログに基づいて訓練されることが多い。
本稿では,API環境を自律的に探索するセルフプレイを通じて,エージェントボットとユーザボットを訓練する2つのアプローチについて検討する。
論文 参考訳(メタデータ) (2021-09-20T14:52:25Z) - A Practical Guide to Studying Emergent Communication through Grounded
Language Games [0.0]
本稿では,Babelソフトウェアシステムを拡張した高レベルロボットインタフェースを提案する。
これは、先進的な基底言語ゲーム実験の実行に関わる各サブタスクを扱うフレキシブルなモジュールを提供するツールキットを初めて提示する。
論文 参考訳(メタデータ) (2020-04-20T11:48:24Z) - lamBERT: Language and Action Learning Using Multimodal BERT [0.1942428068361014]
本研究では,マルチモーダルBERT(lamBERT)モデルを用いた言語と行動学習を提案する。
実験は、エージェントが適切に振る舞うために言語理解を必要とするグリッド環境で行われる。
lamBERTモデルは、他のモデルと比較してマルチタスク設定や転送設定において高い報酬を得た。
論文 参考訳(メタデータ) (2020-04-15T13:54:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。