論文の概要: Exploring AI-powered Digital Innovations from A Transnational Governance Perspective: Implications for Market Acceptance and Digital Accountability Accountability
- arxiv url: http://arxiv.org/abs/2504.20215v1
- Date: Mon, 28 Apr 2025 19:31:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.653607
- Title: Exploring AI-powered Digital Innovations from A Transnational Governance Perspective: Implications for Market Acceptance and Digital Accountability Accountability
- Title(参考訳): トランスナショナルガバナンスの観点からAIを活用したデジタルイノベーションを探る: 市場受容とデジタルアカウンタビリティのアカウンタビリティ
- Authors: Claire Li, David Peter Wallis Freeborn,
- Abstract要約: 本研究では、国際的ガバナンスフレームワークにおけるAIによるデジタルイノベーションへのTAM(Technology Acceptance Model)の適用について検討する。
ラトゥーリアのアクターネットワーク理論(ANT)を統合することにより、組織がAIイノベーションを開発し、導入する上で、制度的モチベーション、規制の遵守、倫理的および文化的受容がいかに促進されるかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores the application of the Technology Acceptance Model (TAM) to AI-powered digital innovations within a transnational governance framework. By integrating Latourian actor-network theory (ANT), this study examines how institutional motivations, regulatory compliance, and ethical and cultural acceptance drive organisations to develop and adopt AI innovations, enhancing their market acceptance and transnational accountability. We extend the TAM framework by incorporating regulatory, ethical, and socio-technical considerations as key social pressures shaping AI adoption. Recognizing that AI is embedded within complex actor-networks, we argue that accountability is co-constructed among organisations, regulators, and societal actors rather than being confined to individual developers or adopters. To address these challenges, we propose two key solutions: (1) internal resource reconfiguration, where organisations restructure their governance and compliance mechanisms to align with global standards; and (2) reshaping organisational boundaries through actor-network management, fostering engagement with external stakeholders, regulatory bodies, and transnational governance institutions. These approaches allow organisations to enhance AI accountability, foster ethical and regulatory alignment, and improve market acceptance on a global scale.
- Abstract(参考訳): 本研究では、国際的ガバナンスフレームワークにおけるAIによるデジタルイノベーションへのTAM(Technology Acceptance Model)の適用について検討する。
ラトゥーリアのアクターネットワーク理論(ANT)を統合することにより、組織が制度的モチベーション、規制の遵守、倫理的および文化的受容によって、AIイノベーションを開発し、導入し、市場受容と国際的説明責任を高める方法を検討する。
我々は、規制、倫理、社会技術的考察をAI採用を形作る重要な社会的プレッシャーとして取り入れることで、TAMフレームワークを拡張します。
AIが複雑なアクターネットワークに埋め込まれていることを認識して、説明責任は個々の開発者や採用者に限定されるのではなく、組織、規制機関、社会的なアクターの間で共同構築されていると論じます。
これらの課題に対処するため,(1)組織がグローバル標準に適合するガバナンスとコンプライアンスの仕組みを再構築する内部資源再構成,(2)アクターネットワーク管理による組織境界の再構築,外部利害関係者との関わりの促進,規制機関,国際機関との連携の促進,の2つの主要な解決策を提案する。
これらのアプローチにより、組織はAI説明責任を強化し、倫理的および規制的整合性を高め、世界規模での市場受け入れを改善することができる。
関連論文リスト
- The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。