論文の概要: Reversing the Paradigm: Building AI-First Systems with Human Guidance
- arxiv url: http://arxiv.org/abs/2506.12245v1
- Date: Fri, 13 Jun 2025 21:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.596055
- Title: Reversing the Paradigm: Building AI-First Systems with Human Guidance
- Title(参考訳): パラダイムを逆転する - ヒューマンガイダンスによるAIファーストシステムの構築
- Authors: Cosimo Spera, Garima Agrawal,
- Abstract要約: 人間と人工知能の関係はもはやSFではない。
人間を置き換えるのではなく、AIはタスクを強化し、データによる意思決定を強化する。
仕事の未来は、AIエージェントがタスクを自律的に処理することにある。
本稿では,AIファーストシステムの導入に責任を負うために必要な技術的・組織的な変化について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The relationship between humans and artificial intelligence is no longer science fiction -- it's a growing reality reshaping how we live and work. AI has moved beyond research labs into everyday life, powering customer service chats, personalizing travel, aiding doctors in diagnosis, and supporting educators. What makes this moment particularly compelling is AI's increasing collaborative nature. Rather than replacing humans, AI augments our capabilities -- automating routine tasks, enhancing decisions with data, and enabling creativity in fields like design, music, and writing. The future of work is shifting toward AI agents handling tasks autonomously, with humans as supervisors, strategists, and ethical stewards. This flips the traditional model: instead of humans using AI as a tool, intelligent agents will operate independently within constraints, managing everything from scheduling and customer service to complex workflows. Humans will guide and fine-tune these agents to ensure alignment with goals, values, and context. This shift offers major benefits -- greater efficiency, faster decisions, cost savings, and scalability. But it also brings risks: diminished human oversight, algorithmic bias, security flaws, and a widening skills gap. To navigate this transition, organizations must rethink roles, invest in upskilling, embed ethical principles, and promote transparency. This paper examines the technological and organizational changes needed to enable responsible adoption of AI-first systems -- where autonomy is balanced with human intent, oversight, and values.
- Abstract(参考訳): 人間と人工知能の関係はもはやSFではなく、私たちの生活と仕事の仕方を変えつつある現実だ。AIは研究ラボを超えて、日々の生活に移行し、カスタマーサービスチャットをパワーアップし、旅行をパーソナライズし、医師の診断を支援し、教育者を支援する。この瞬間を特に魅力的にしているのは、AIの協力的性質の増大だ。人間を置き換えるのではなく、AIは私たちの能力を増強する – ルーチンタスクの自動化、データによる意思決定の強化、デザイン、音楽、執筆といった分野における創造性の実現だ。
未来の仕事は、人間を監督者、戦略家、倫理的なスチュワードとして、自律的にタスクを扱うAIエージェントへとシフトしつつある。
AIをツールとして使用する人間の代わりに、インテリジェントエージェントは制約内で独立して動作し、スケジューリングやカスタマサービスから複雑なワークフローに至るまで、すべてを管理します。
人間はこれらのエージェントをガイドし、微調整し、目標、価値、コンテキストとの整合性を確保する。
このシフトは、効率の向上、意思決定の高速化、コスト削減、スケーラビリティといった、大きなメリットを提供します。
人間の監視力の低下、アルゴリズムの偏見、セキュリティの欠陥、スキルギャップの拡大などだ。
この移行をナビゲートするには、役割を再考し、スキル向上に投資し、倫理的原則を組み込み、透明性を促進する必要がある。
本稿では、AIファーストシステムの責任ある採用を可能にするために必要な技術的・組織的な変化について検討する。
関連論文リスト
- A Call for Collaborative Intelligence: Why Human-Agent Systems Should Precede AI Autonomy [36.74150011862134]
人間とAIのチームワークは、AIが単独で作業するよりも複雑なタスクをうまく処理できることを示す。
本稿は、AIの進歩は、独立系がどのように成長するかではなく、人間がいかにうまく機能するかによって測定されるべきである、と論じる。
論文 参考訳(メタデータ) (2025-06-11T06:08:13Z) - Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。