論文の概要: A Call for Collaborative Intelligence: Why Human-Agent Systems Should Precede AI Autonomy
- arxiv url: http://arxiv.org/abs/2506.09420v1
- Date: Wed, 11 Jun 2025 06:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.564196
- Title: A Call for Collaborative Intelligence: Why Human-Agent Systems Should Precede AI Autonomy
- Title(参考訳): 協力的知性への呼びかけ:AIの自律性を人類が優先すべき理由
- Authors: Henry Peng Zou, Wei-Chieh Huang, Yaozu Wu, Chunyu Miao, Dongyuan Li, Aiwei Liu, Yue Zhou, Yankai Chen, Weizhi Zhang, Yangning Li, Liancheng Fang, Renhe Jiang, Philip S. Yu,
- Abstract要約: 人間とAIのチームワークは、AIが単独で作業するよりも複雑なタスクをうまく処理できることを示す。
本稿は、AIの進歩は、独立系がどのように成長するかではなく、人間がいかにうまく機能するかによって測定されるべきである、と論じる。
- 参考スコア(独自算出の注目度): 36.74150011862134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent improvements in large language models (LLMs) have led many researchers to focus on building fully autonomous AI agents. This position paper questions whether this approach is the right path forward, as these autonomous systems still have problems with reliability, transparency, and understanding the actual requirements of human. We suggest a different approach: LLM-based Human-Agent Systems (LLM-HAS), where AI works with humans rather than replacing them. By keeping human involved to provide guidance, answer questions, and maintain control, these systems can be more trustworthy and adaptable. Looking at examples from healthcare, finance, and software development, we show how human-AI teamwork can handle complex tasks better than AI working alone. We also discuss the challenges of building these collaborative systems and offer practical solutions. This paper argues that progress in AI should not be measured by how independent systems become, but by how well they can work with humans. The most promising future for AI is not in systems that take over human roles, but in those that enhance human capabilities through meaningful partnership.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の改良により、多くの研究者が完全に自律的なAIエージェントの構築に集中するようになった。
これらの自律システムには、信頼性、透明性、実際の人間の要求に対する理解に関する問題がまだ残っている。
LLMベースのHuman-Agent Systems(LLM-HAS)では、AIはそれを置き換えるのではなく、人間と連携する。
人間を巻き込んでガイダンスを提供し、質問に答え、コントロールを維持することで、これらのシステムはより信頼でき、適応できます。
医療、金融、ソフトウェア開発の例を見て、人間とAIのチームワークがAI単独の作業よりも複雑なタスクをうまく処理できることを示します。
また、これらの協調システムの構築と実践的なソリューションの提供の課題についても論じる。
本稿は、AIの進歩は、独立系がどのように成長するかではなく、人間がいかにうまく機能するかによって測定されるべきである、と論じる。
AIにとって最も有望な未来は、人間の役割を引き継ぐシステムではなく、有意義なパートナーシップを通じて人間の能力を高めるシステムである。
関連論文リスト
- Reversing the Paradigm: Building AI-First Systems with Human Guidance [0.0]
人間と人工知能の関係はもはやSFではない。
人間を置き換えるのではなく、AIはタスクを強化し、データによる意思決定を強化する。
仕事の未来は、AIエージェントがタスクを自律的に処理することにある。
本稿では,AIファーストシステムの導入に責任を負うために必要な技術的・組織的な変化について検討する。
論文 参考訳(メタデータ) (2025-06-13T21:48:44Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Applying HCAI in developing effective human-AI teaming: A perspective
from human-AI joint cognitive systems [10.746728034149989]
研究と応用は、AIシステムを開発するための新しいパラダイムとして、HAT(Human-AI Teaming)を使用している。
我々は,人間とAIの協調認知システム(HAIJCS)の概念的枠組みについて詳しく検討する。
本稿では,HATを表現・実装するためのヒューマンAI共同認知システム(HAIJCS)の概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:26:38Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Human-Centered AI for Data Science: A Systematic Approach [48.71756559152512]
HCAI(Human-Centered AI)は、さまざまなヒューマンタスクをサポートするAI技術の設計と実装を目的とした研究活動である。
データサイエンス(DS)に関する一連の研究プロジェクトを使ってHCAIにどのようにアプローチするかをケーススタディとして紹介する。
論文 参考訳(メタデータ) (2021-10-03T21:47:13Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。