論文の概要: From Values to Frameworks: A Qualitative Study of Ethical Reasoning in Agentic AI Practitioners
- arxiv url: http://arxiv.org/abs/2601.06062v1
- Date: Wed, 24 Dec 2025 00:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.612495
- Title: From Values to Frameworks: A Qualitative Study of Ethical Reasoning in Agentic AI Practitioners
- Title(参考訳): 価値からフレームワークへ:エージェントAI実践者の倫理的推論の質的研究
- Authors: Theodore Roberts, Bahram Zarrin,
- Abstract要約: エージェント人工知能システムは、人間の監督を最小限に抑えて複雑な目標を追求できる自律技術である。
これらのシステムは生産性の大きな向上を約束する一方で、新たな倫理的課題も提起する。
本稿では,エージェントAI展開における構造化ジレンマを中心とした質的なインタビューを通じて,AI実践者の倫理的理由について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic artificial intelligence systems are autonomous technologies capable of pursuing complex goals with minimal human oversight and are rapidly emerging as the next frontier in AI. While these systems promise major gains in productivity, they also raise new ethical challenges. Prior research has examined how different populations prioritize Responsible AI values, yet little is known about how practitioners actually reason through the trade-offs inherent in designing these autonomous systems. This paper investigates the ethical reasoning of AI practitioners through qualitative interviews centered on structured dilemmas in agentic AI deployment. We find that the responses of practitioners do not merely reflect value preferences but rather align with three distinct reasoning frameworks. First is a Customer-Centric framework where choices are justified by business interests, legality, and user autonomy. Second is a Design-Centric framework emphasizing technical safeguards and system constraints. Third is an Ethics-Centric framework prioritizing social good and moral responsibility beyond compliance. We argue that these frameworks offer distinct and necessary insights for navigating ethical trade-offs. Consequently, providers of agentic AI must look beyond general principles and actively manage how these diverse reasoning frameworks are represented in their decision-making processes to ensure robust ethical outcomes.
- Abstract(参考訳): エージェント人工知能システムは、人間の監視を最小限にして複雑な目標を追求できる自律技術であり、AIの次のフロンティアとして急速に出現している。
これらのシステムは生産性の大きな向上を約束する一方で、新たな倫理的課題も提起する。
以前の研究では、異なる集団が責任あるAIの価値をどのように優先順位付けするかが研究されてきたが、これらの自律システムの設計に固有のトレードオフを通じて実践者が実際にどのように判断するかは、ほとんど分かっていない。
本稿では,エージェントAI展開における構造化ジレンマを中心とした質的なインタビューを通じて,AI実践者の倫理的理由について考察する。
実践者の反応は単に価値の選好を反映するだけでなく、3つの異なる推論フレームワークと一致していることがわかった。
まず、選択はビジネス上の関心事、合法性、ユーザの自律性によって正当化される、顧客中心のフレームワークである。
第二に、技術的な安全とシステムの制約を強調する設計中心のフレームワークです。
第3の枠組みは、コンプライアンスを超えた社会的善と道徳的責任を優先する倫理的中心の枠組みである。
これらのフレームワークは、倫理的トレードオフをナビゲートする上で、明確かつ必要な洞察を提供する、と我々は主張する。
その結果、エージェントAIのプロバイダは、一般的な原則を越えて、これらの多様な推論フレームワークが、堅牢な倫理的結果を保証するための意思決定プロセスでどのように表現されるか、積極的に管理する必要がある。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Delegating Responsibilities to Intelligent Autonomous Systems: Challenges and Benefits [1.7205106391379026]
AIシステムは自律性と適応性で機能するので、技術的社会システムにおける伝統的な道徳的責任の境界が課題となっている。
本稿では,知的自律エージェントへの責任委譲に関する議論の進展と,そのような実践の倫理的意味について考察する。
論文 参考訳(メタデータ) (2024-11-06T18:40:38Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。