論文の概要: Roots and Requirements for Collaborative AIs
- arxiv url: http://arxiv.org/abs/2303.12040v4
- Date: Thu, 2 Nov 2023 23:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 11:31:09.540847
- Title: Roots and Requirements for Collaborative AIs
- Title(参考訳): コラボレーションAIの根と要件
- Authors: Mark Stefik
- Abstract要約: 現在主流のAIは、堅牢でインテリジェントで、人間と互換性のあるコラボレータを生成できない、とPaper氏は主張する。
レジリエンス、インテリジェント、および人間互換のAIを作成するための技術と方法論の急激なシフトを探求することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vision of AI collaborators has long been a staple of stories and science
fiction, where artificial agents understand nuances of collaboration and human
communication. They assist their human partners and teams and have special
talents. Government advisory groups and leaders in AI have advocated for years
that AIs should be human compatible and effective collaborators. Nonetheless,
robust AIs that collaborate like talented people remain out of reach. The
simpler dream of effective information tools that augment human intelligence
(IA) has its roots in the 1960s and helped to drive an information technology
revolution. With the vast increase in hybrid and remote work since the COVID
pandemic, the benefits and requirements for better coordination, collaboration,
and communication are in focus for the workplace. Many factors (such as the
costs of homes near work) are impeding a mass return to in-person work at the
office. Are human-like AI teammates part of a solution? If we just need better
tools for collaboration, how artificially intelligent (AI) could and should
these tools be? This position paper reviews the arc of technology and calls by
others for human-machine teaming. It draws on earlier research in psychology
and the social sciences about what human-like collaboration actually requires.
This paper argues that current mainstream AI cannot produce robust,
intelligent, and human-compatible collaborators. It sets a context for a second
paper that proposes exploring a radical shift in technology and methodology for
creating resilient, intelligent, and human-compatible AIs (Stefik & Price,
2023). The aspirational goal is that such AIs would learn, share what they
learn, and collaborate to achieve high standards.
- Abstract(参考訳): AI協力者のビジョンは、長い間物語やSFの主役であり、人工エージェントはコラボレーションと人間のコミュニケーションのニュアンスを理解する。
彼らは人間のパートナーやチームを支援し、特別な才能を持っている。
AIの政府諮問グループとリーダーは、AIは人間互換で効果的な協力者であるべきだと長年主張してきた。
それでも、才能のある人たちのように協力する堅牢なAIは、まだ手の届かないままだ。
人間の知能を増強する効果的な情報ツールというより単純な夢は、1960年代にルーツを持ち、情報技術革命を推進した。
新型コロナウイルス(COVID-19)のパンデミック以降、ハイブリッドワークとリモートワークの大幅な増加に伴い、より良いコーディネーション、コラボレーション、コミュニケーションのためのメリットと要件が職場に焦点が当てられている。
多くの要因(例えば、職場近くの住宅のコストなど)が、オフィスでの個人の仕事への大量復帰を妨げる。
人間のようなAIチームメイトはソリューションの一部か?
コラボレーションのためのより良いツールが必要な場合、ai(artificially intelligent)はどのようになり得るのでしょうか。
このポジションペーパーは、テクノロジーの弧をレビューし、人間と機械のチームづくりを他人に呼びかける。
心理学や社会科学において、人間のようなコラボレーションが本当に必要とするものについて研究している。
本稿は、現在の主流AIは、堅牢でインテリジェントで、人間互換のコラボレータを生成できない、と論じる。
回復力があり、インテリジェントで、人間と互換性のあるAIを作るための技術と方法論の急激なシフトを探求する第2の論文(Stefik & Price, 2023)のコンテキストを定めている。
願望的な目標は、そのようなAIが学び、学んだことを共有し、高い標準を達成するために協力することだ。
関連論文リスト
- Lifelong learning challenges in the era of artificial intelligence: a computational thinking perspective [0.0]
人工知能(AI)の急速な進歩は、職場での人間とAIのコラボレーションにAIを活用するために必要な教育と労働力のスキルに大きな課題をもたらした。
本稿では,AI時代の生涯学習の課題を,計算的思考の観点から概観する。
論文 参考訳(メタデータ) (2024-05-30T08:46:11Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Human-AI Collaboration in Real-World Complex Environment with
Reinforcement Learning [8.465957423148657]
人間からの学習は効果的であり、人間とAIのコラボレーションは、人間の制御された完全に自律的なAIエージェントよりも優れていることを示す。
我々は,AIエージェントを効果的に支援するためのユーザインタフェースを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:27:24Z) - Why is AI not a Panacea for Data Workers? An Interview Study on Human-AI
Collaboration in Data Storytelling [59.08591308749448]
業界と学界の18人のデータワーカーにインタビューして、AIとのコラボレーションの場所と方法を聞いた。
驚いたことに、参加者はAIとのコラボレーションに興奮を見せたが、彼らの多くは反感を表明し、曖昧な理由を指摘した。
論文 参考訳(メタデータ) (2023-04-17T15:30:05Z) - The Turing Trap: The Promise & Peril of Human-Like Artificial
Intelligence [1.9143819780453073]
人間のような人工知能の利点には、生産性の上昇、余暇の増加、そしておそらく最も重要なのは、私たちの心をよりよく理解することが含まれる。
しかし、あらゆるタイプのAIが人間に似ているわけではない。実際、最も強力なシステムの多くは、人間とは大きく異なる。
機械が人間の労働の代用となるにつれ、労働者は経済的・政治的交渉力を失う。
対照的に、AIが人間を模倣するのではなく強化することに焦点を当てている場合、人間は創造された価値の共有を主張する力を保持します。
論文 参考訳(メタデータ) (2022-01-11T21:07:17Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。