論文の概要: Open Problems in Cooperative AI
- arxiv url: http://arxiv.org/abs/2012.08630v1
- Date: Tue, 15 Dec 2020 21:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:13:52.379145
- Title: Open Problems in Cooperative AI
- Title(参考訳): 協調型AIにおけるオープン問題
- Authors: Allan Dafoe and Edward Hughes and Yoram Bachrach and Tantum Collins
and Kevin R. McKee and Joel Z. Leibo and Kate Larson and Thore Graepel
- Abstract要約: 研究の目的は、協力の問題の多くの側面を研究し、これらの問題を解決するためにAIを革新することである。
本研究は,マルチエージェントシステム,ゲーム理論と社会的選択,ヒューマンマシンインタラクションとアライメント,自然言語処理,ソーシャルツールとプラットフォームの構築など,現在進行中の作業を統合する。
- 参考スコア(独自算出の注目度): 21.303564222227727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Problems of cooperation--in which agents seek ways to jointly improve their
welfare--are ubiquitous and important. They can be found at scales ranging from
our daily routines--such as driving on highways, scheduling meetings, and
working collaboratively--to our global challenges--such as peace, commerce, and
pandemic preparedness. Arguably, the success of the human species is rooted in
our ability to cooperate. Since machines powered by artificial intelligence are
playing an ever greater role in our lives, it will be important to equip them
with the capabilities necessary to cooperate and to foster cooperation.
We see an opportunity for the field of artificial intelligence to explicitly
focus effort on this class of problems, which we term Cooperative AI. The
objective of this research would be to study the many aspects of the problems
of cooperation and to innovate in AI to contribute to solving these problems.
Central goals include building machine agents with the capabilities needed for
cooperation, building tools to foster cooperation in populations of (machine
and/or human) agents, and otherwise conducting AI research for insight relevant
to problems of cooperation. This research integrates ongoing work on
multi-agent systems, game theory and social choice, human-machine interaction
and alignment, natural-language processing, and the construction of social
tools and platforms. However, Cooperative AI is not the union of these existing
areas, but rather an independent bet about the productivity of specific kinds
of conversations that involve these and other areas. We see opportunity to more
explicitly focus on the problem of cooperation, to construct unified theory and
vocabulary, and to build bridges with adjacent communities working on
cooperation, including in the natural, social, and behavioural sciences.
- Abstract(参考訳): エージェントが共同で福祉を改善する方法を模索する協力の問題は、ユビキタスで重要なものである。
ハイウェイの運転や会議のスケジュール、協力的な作業など、私たちの毎日のルーチンから、平和や商業、パンデミックの準備といったグローバルな課題まで、さまざまなスケールで見られます。
人類の成功は、我々の協力力に根ざしているに違いない。
人工知能によって駆動される機械は、私たちの生活においてずっと大きな役割を担っているので、協力と協力の促進に必要な能力を持たせることが重要です。
私たちは、人工知能の分野が、協調aiと呼ばれるこのタイプの問題に明示的に注力する機会を見出している。
この研究の目的は、協力の課題の多くの側面を研究し、これらの問題の解決に貢献するためにAIを革新することである。
中心となる目標には、協力に必要な能力を備えた機械エージェントの構築、(機械および/または人間)エージェントの集団における協力を促進するツールの構築、その他協力問題に関連する洞察を得るためにai研究を実施することが含まれる。
本研究は,マルチエージェントシステム,ゲーム理論と社会的選択,ヒューマンマシンインタラクションとアライメント,自然言語処理,ソーシャルツールとプラットフォームの構築など,現在進行中の作業を統合する。
しかし、協調AIは、これらの既存の領域の結合ではなく、これらの領域を含む特定の種類の会話の生産性に対する独立した賭けである。
我々は、より明確に協力の問題に焦点を当て、統一理論と語彙を構築し、自然科学、社会科学、行動科学を含む協力に取り組む近隣のコミュニティと橋を建設する機会を見出している。
関連論文リスト
- Constrained Human-AI Cooperation: An Inclusive Embodied Social Intelligence Challenge [47.74313897705183]
CHAICは、インボディードエージェントの社会的知覚と協力をテストするために設計された包括的インボディード・ソーシャル・インテリジェンス・チャレンジである。
CHAICの目標は、身体的制約の下で活動している可能性がある人間を支援するために、自我中心の観察装置を備えたエンボディエージェントである。
我々は,この課題に対する計画ベースラインと学習ベースラインのベンチマークを行い,大規模言語モデルと行動モデリングを活用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T04:41:12Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAI-Co2を提案する。
我々は、HAI-Co2を形式化し、それが直面する困難なオープンリサーチ問題について議論する。
本稿では,HAI-Co2のケーススタディと,モノリシックな生成型AIモデルとの比較による有効性を示す。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Multi-Agent, Human-Agent and Beyond: A Survey on Cooperation in Social Dilemmas [15.785674974107204]
社会ジレンマにおける協力の研究は、長年、様々な分野の基本的なトピックであった。
人工知能の最近の進歩は、この分野を大きく変えた。
この調査は、AIの交差点における3つの重要な領域と、社会的ジレンマにおける協力について調査する。
論文 参考訳(メタデータ) (2024-02-27T07:31:30Z) - Human AI Collaboration in Software Engineering: Lessons Learned from a
Hands On Workshop [1.14603174659129]
この研究は、人間のAIインタラクションの進化する性質、ソフトウェアエンジニアリングタスクにおけるAIの能力、この領域にAIを統合することの課題と制限など、重要なテーマを特定している。
この結果は、AI、特にChatGPTがコード生成と最適化の効率を改善する一方で、特に複雑な問題解決とセキュリティ上の考慮を必要とする分野において、人間の監視は依然として重要であることを示している。
論文 参考訳(メタデータ) (2023-12-17T06:31:05Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。