論文の概要: Agentic Enterprise: AI-Centric User to User-Centric AI
- arxiv url: http://arxiv.org/abs/2506.22893v1
- Date: Sat, 28 Jun 2025 14:05:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.61915
- Title: Agentic Enterprise: AI-Centric User to User-Centric AI
- Title(参考訳): Agentic Enterprise: AI中心のユーザからユーザ中心のAI
- Authors: Arpit Narechania, Alex Endert, Atanu R Sinha,
- Abstract要約: AI for Enterprisesは、意思決定が機能、タスク、オペレーションにまたがって決定的かつ繰り返される役割を担います。
AI-Centric Userパラダイムが欠落していることに注意を向けることで、企業におけるエージェント的成功のための6つのテッテを強調します。
ユーザ中心AIへの移行を裏付ける上で、私たちは6つのテテットを提供し、プラットフォームの市場メカニズムを促進しています。
- 参考スコア(独自算出の注目度): 13.788858905752935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: After a very long winter, the Artificial Intelligence (AI) spring is here. Or, so it seems over the last three years. AI has the potential to impact many areas of human life - personal, social, health, education, professional. In this paper, we take a closer look at the potential of AI for Enterprises, where decision-making plays a crucial and repeated role across functions, tasks, and operations. We consider Agents imbued with AI as means to increase decision-productivity of enterprises. We highlight six tenets for Agentic success in enterprises, by drawing attention to what the current, AI-Centric User paradigm misses, in the face of persistent needs of and usefulness for Enterprise Decision-Making. In underscoring a shift to User-Centric AI, we offer six tenets and promote market mechanisms for platforms, aligning the design of AI and its delivery by Agents to the cause of enterprise users.
- Abstract(参考訳): 非常に長い冬の後、人工知能(AI)の春が来た。
あるいは、過去3年でそうなったようだ。
AIは、個人、社会的、健康、教育、プロフェッショナルといった、人間の生活の多くの領域に影響を与える可能性がある。
本稿では,AI for Enterprises(AI for Enterprises)の可能性について詳しく検討する。
我々は、AIを応用したエージェントを、企業の意思決定生産性を高める手段とみなしている。
企業におけるエージェント的成功のための6つのテッテを強調し、現在のAI中心のユーザパラダイムが失うものに注目し、企業決定-意思決定の永続的なニーズと有用性に直面します。
ユーザ中心型AIへの移行について、私たちは6つのテテットを提供し、プラットフォームの市場メカニズムを促進し、AIの設計とエージェントによるデリバリをエンタープライズユーザの原因に整合させています。
関連論文リスト
- AI Agents and Agentic AI-Navigating a Plethora of Concepts for Future Manufacturing [8.195356684218691]
AIエージェントは、動的環境の中で知覚、理性、行動するように設計された自律システムである。
LLM、MLLM、エージェントAIは、情報処理、環境認識、自律的な意思決定におけるAIの能力の拡大に貢献している。
この研究は、AIとAIエージェント技術の進化を体系的にレビューする。
論文 参考訳(メタデータ) (2025-07-02T05:31:17Z) - Reversing the Paradigm: Building AI-First Systems with Human Guidance [0.0]
人間と人工知能の関係はもはやSFではない。
人間を置き換えるのではなく、AIはタスクを強化し、データによる意思決定を強化する。
仕事の未来は、AIエージェントがタスクを自律的に処理することにある。
本稿では,AIファーストシステムの導入に責任を負うために必要な技術的・組織的な変化について検討する。
論文 参考訳(メタデータ) (2025-06-13T21:48:44Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Follow the money: a startup-based measure of AI exposure across occupations, industries and regions [0.0]
既存のAIの職業曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的可能性に焦点を当てている。
我々は,O*NETとスタートアップが開発したAIアプリケーションからの職業的記述に基づく,新たな指標であるAISE(AI Startup Exposure)指標を紹介する。
我々の発見は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形成されていくことを示唆している。
論文 参考訳(メタデータ) (2024-12-06T10:25:05Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Do We Need Explainable AI in Companies? Investigation of Challenges,
Expectations, and Chances from Employees' Perspective [0.8057006406834467]
AIの使用は、企業とその従業員に対して、AIシステムの透明性と理解性を含む、新たな要件を提供する。
説明可能なAI(XAI)の分野は、これらの問題に対処することを目指している。
本報告では,(X)AIに対する従業員のニーズと態度について考察する。
論文 参考訳(メタデータ) (2022-10-07T13:11:28Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI loyalty: A New Paradigm for Aligning Stakeholder Interests [0.0]
我々は、AI倫理における他の重要な価値と共に、技術設計プロセスにおいてAIの忠誠心が考慮されるべきであると主張する。
我々は、将来のAIシステムにAI忠誠を組み込むための様々なメカニズムについて論じる。
論文 参考訳(メタデータ) (2020-03-24T23:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。