論文の概要: Responsible AI: The Good, The Bad, The AI
- arxiv url: http://arxiv.org/abs/2601.21095v1
- Date: Wed, 28 Jan 2026 22:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.466639
- Title: Responsible AI: The Good, The Bad, The AI
- Title(参考訳): 責任あるAI:良い、悪い、AI
- Authors: Akbar Anbar Jafari, Cagri Ozcinar, Gholamreza Anbarjafari,
- Abstract要約: 本稿では,戦略的情報システムのレンズを通して,AIの二重性に関する包括的考察を行う。
我々は,(1)AI導入の戦略的利益,(2)固有のリスクと意図しない結果,(3)組織がこれらの緊張をナビゲートできるガバナンスメカニズムを具体化する,パラドックスベースの責任AIガバナンス(PRAIG)フレームワークを開発する。
この論文は、責任あるAIガバナンスの奨学金を進めるための研究課題で締めくくっている。
- 参考スコア(独自算出の注目度): 1.932555230783329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of artificial intelligence across organizational contexts has generated profound strategic opportunities while introducing significant ethical and operational risks. Despite growing scholarly attention to responsible AI, extant literature remains fragmented and is often adopting either an optimistic stance emphasizing value creation or an excessively cautious perspective fixated on potential harms. This paper addresses this gap by presenting a comprehensive examination of AI's dual nature through the lens of strategic information systems. Drawing upon a systematic synthesis of the responsible AI literature and grounded in paradox theory, we develop the Paradox-based Responsible AI Governance (PRAIG) framework that articulates: (1) the strategic benefits of AI adoption, (2) the inherent risks and unintended consequences, and (3) governance mechanisms that enable organizations to navigate these tensions. Our framework advances theoretical understanding by conceptualizing responsible AI governance as the dynamic management of paradoxical tensions between value creation and risk mitigation. We provide formal propositions demonstrating that trade-off approaches amplify rather than resolve these tensions, and we develop a taxonomy of paradox management strategies with specified contingency conditions. For practitioners, we offer actionable guidance for developing governance structures that neither stifle innovation nor expose organizations to unacceptable risks. The paper concludes with a research agenda for advancing responsible AI governance scholarship.
- Abstract(参考訳): 組織的文脈における人工知能の急速な普及は、重要な倫理的および運用上のリスクを導入しながら、重要な戦略的機会を生み出している。
学術的にAIに対する関心が高まりつつあるにもかかわらず、現存する文献は断片化され続けており、価値創造を強調する楽観的な姿勢や、潜在的な害に固定された過度に慎重な見方を採用することが多い。
本稿では,戦略的情報システムのレンズを通して,AIの双対性を包括的に検証することによって,このギャップに対処する。
パラドックス理論に基づく,責任あるAI文献の体系的な合成に基づいて,(1)AI導入の戦略的メリット,(2)固有のリスクと意図しない結果,(3)組織がこれらの緊張をナビゲートできるガバナンスメカニズムを具体化した,パラドックスベースの責任あるAIガバナンス(PRAIG)フレームワークを開発する。
我々の枠組みは、価値創造とリスク軽減の間のパラドックス的緊張の動的管理として責任あるAIガバナンスを概念化し、理論的理解を深める。
我々は,これらの緊張を解消するよりもトレードオフアプローチが増幅することを示す公式な提案を行い,特定の緊急条件を持つパラドックス管理戦略の分類法を開発する。
実践者に対しては、イノベーションを阻害したり、組織を容認できないリスクに晒したりしないガバナンス構造を開発するための実行可能なガイダンスを提供します。
この論文は、責任あるAIガバナンスの奨学金を進めるための研究課題で締めくくっている。
関連論文リスト
- The Stories We Govern By: AI, Risk, and the Power of Imaginaries [0.0]
本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
論文 参考訳(メタデータ) (2025-08-15T09:57:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Deciding how to respond: A deliberative framework to guide policymaker responses to AI systems [0.0]
我々は自由の概念を運用することによって、補完的なアプローチを開発することができると主張している。
結果として得られるフレームワークは、コーディネート、コミュニケーション、決定空間を中心に構成されている。
論文 参考訳(メタデータ) (2025-08-05T17:25:14Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,複雑なシステム研究を基盤としたフレームワークを導入することにより,構造リスクの概念を推し進める。
構造リスクを、先行する構造的原因、先行するAIシステム原因、有害なフィードバックループの3つのカテゴリに分類する。
本稿では,これらのダイナミクスを予測し,支配するために,シナリオマッピング,シミュレーション,探索的展望を取り入れた方法論的アジェンダを提案する。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。