論文の概要: Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI
- arxiv url: http://arxiv.org/abs/2504.11564v1
- Date: Tue, 15 Apr 2025 19:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:43.542086
- Title: Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI
- Title(参考訳): 組織におけるエージェントAIの認識:責任あるAIとROIの意義
- Authors: Lee Ackerman,
- Abstract要約: 本稿では,エージェントAIの出現する状況の中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
エージェントAIシステムの本質的な複雑さと、その責任ある実装は、責任あるAI次元とテーマフレームワークの複雑な相互接続性に根ざし、組織的適応における重大な課題に寄与している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As artificial intelligence (AI) systems rapidly gain autonomy, the need for robust responsible AI frameworks becomes paramount. This paper investigates how organizations perceive and adapt such frameworks amidst the emerging landscape of increasingly sophisticated agentic AI. Employing an interpretive qualitative approach, the study explores the lived experiences of AI professionals. Findings highlight that the inherent complexity of agentic AI systems and their responsible implementation, rooted in the intricate interconnectedness of responsible AI dimensions and the thematic framework (an analytical structure developed from the data), combined with the novelty of agentic AI, contribute to significant challenges in organizational adaptation, characterized by knowledge gaps, a limited emphasis on stakeholder engagement, and a strong focus on control. These factors, by hindering effective adaptation and implementation, ultimately compromise the potential for responsible AI and the realization of ROI.
- Abstract(参考訳): 人工知能(AI)システムが急速に自律性を得るにつれ、堅牢な責任を持つAIフレームワークの必要性が最重要となる。
本稿では,より高度なエージェントAIが出現する中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
解釈的質的なアプローチを用いて、この研究はAI専門家の生きた経験を探求する。
エージェントAIシステムの固有の複雑さと、責任あるAI次元とテーマフレームワーク(データから開発された分析構造)の複雑な相互接続性に根ざした、エージェントAIシステムの固有の実装が、エージェントAIの新規性と相まって、知識のギャップ、ステークホルダーの関与の限定的な強調、コントロールに強い焦点をあてた、組織適応における大きな課題に寄与することを明らかにする。
これらの要因は、効果的な適応と実装を妨げることで、最終的には責任あるAIとROIの実現の可能性を損なう。
関連論文リスト
- Lessons from complexity theory for AI governance [1.6122472145662998]
複雑性理論は、政策立案者にとって中心的な課題となるAIの特徴を照らすのに役立つ。
我々は、AI管理の取り組みが深刻な不確実性によってどのように特徴付けられるかを検討する。
我々は,AIガバナンスのタイミングと構造に関して,複雑性に適合する一連の原則を提案する。
論文 参考訳(メタデータ) (2025-01-07T07:56:40Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - AI Governance and Accountability: An Analysis of Anthropic's Claude [0.0]
本稿では,基本的AIモデルであるArthropicのClaudeに着目し,AIガバナンスの展望について考察する。
我々は、NIST AI Risk Management FrameworkとEU AI Actのレンズを通してCludeを分析し、潜在的な脅威を特定し、緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:37:06Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Proceedings of the Robust Artificial Intelligence System Assurance
(RAISA) Workshop 2022 [0.0]
RAISAワークショップは、堅牢な人工知能(AI)と機械学習(ML)システムの研究、開発、応用に焦点を当てる。
特定のMLアルゴリズムに関してロバストネスを研究するのではなく、システムアーキテクチャのレベルでロバストネスの保証を検討することを目的としています。
論文 参考訳(メタデータ) (2022-02-10T01:15:50Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。