論文の概要: Approaches to Responsible Governance of GenAI in Organizations
- arxiv url: http://arxiv.org/abs/2504.17044v1
- Date: Wed, 23 Apr 2025 18:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.14127
- Title: Approaches to Responsible Governance of GenAI in Organizations
- Title(参考訳): 組織におけるGenAIの責任あるガバナンスへのアプローチ
- Authors: Dhari Gandhi, Himanshu Joshi, Lucas Hartman, Shabnam Hassani,
- Abstract要約: 本稿では,GenAIガバナンスを多種多様な組織構造に統合するための基本原則を特定するための文献,確立されたガバナンスフレームワーク,産業の総括的な議論について述べる。
発見は、信頼できるGenAIを確立するために、適応可能なリスクアセスメントツール、継続的監視プラクティス、クロスセクタコラボレーションの必要性を強調している。
- 参考スコア(独自算出の注目度): 0.1747623282473278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of Generative AI (GenAI) has introduced unprecedented opportunities while presenting complex challenges around ethics, accountability, and societal impact. This paper draws on a literature review, established governance frameworks, and industry roundtable discussions to identify core principles for integrating responsible GenAI governance into diverse organizational structures. Our objective is to provide actionable recommendations for a balanced, risk-based governance approach that enables both innovation and oversight. Findings emphasize the need for adaptable risk assessment tools, continuous monitoring practices, and cross-sector collaboration to establish trustworthy GenAI. These insights provide a structured foundation and Responsible GenAI Guide (ResAI) for organizations to align GenAI initiatives with ethical, legal, and operational best practices.
- Abstract(参考訳): ジェネレーティブAI(GenAI)の急速な進化は、倫理、説明責任、社会的影響に関する複雑な課題を提示しながら、前例のない機会をもたらした。
本稿では,GenAIガバナンスを多種多様な組織構造に統合するための基本原則を明らかにするための文献レビュー,確立されたガバナンスフレームワーク,産業の総括的な議論について述べる。
私たちの目標は、イノベーションと監視の両方を可能にするバランスのとれたリスクベースのガバナンスアプローチに対して、実行可能なレコメンデーションを提供することです。
発見は、信頼できるGenAIを確立するために、適応可能なリスクアセスメントツール、継続的監視プラクティス、クロスセクタコラボレーションの必要性を強調している。
これらの洞察は、GenAIイニシアティブを倫理的、法的、運用上のベストプラクティスと整合させる組織のための構造化された基盤と責任あるGenAIガイド(ResAI)を提供する。
関連論文リスト
- The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Standardizing Intelligence: Aligning Generative AI for Regulatory and Operational Compliance [3.666326242924816]
我々は、ドメインやセクター間で異なる標準の臨界レベルを評価し、最先端のGenAIモデルの現在のコンプライアンス能力を評価することでそれらを補完する。
全体として、GenAIと標準を計算手法で整合させることは、規制と運用のコンプライアンスを強化するのに役立つと論じる。
論文 参考訳(メタデータ) (2025-02-03T16:55:01Z) - Navigating Ethical Challenges in Generative AI-Enhanced Research: The ETHICAL Framework for Responsible Generative AI Use [0.0]
生成人工知能(GenAI)の急速な普及は、機会と倫理的課題の両方を提示する。
本稿では、研究におけるGenAIの責任を負うための実践的ガイドであるETHICALフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-11T05:49:11Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Navigating Governance Paradigms: A Cross-Regional Comparative Study of Generative AI Governance Processes & Principles [19.25514463100802]
本稿では, リスク, ルール, 結果, 原則, あるいは世界中のさまざまな地域をまたがる混合に基づく, 初期段階および多様なガバナンスアプローチのニュアンスを明らかにすることを目的とする。
本研究は、欧州連合(EU)、米国(米国)、中国(CN)、カナダ(CA)、英国(UK)、シンガポール(SG)の6つの領域の統治アプローチに基づく、調和したGenAIフレームワーク「H-GenAIGF」を紹介する。
論文 参考訳(メタデータ) (2024-08-14T08:16:44Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Governance of Generative Artificial Intelligence for Companies [1.2818275315985972]
ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Red-Teaming for Generative AI: Silver Bullet or Security Theater? [42.35800543892003]
我々は、赤いチーム化は、GenAIの有害な軽減を特徴付ける上で価値のある大胆なアイデアであるが、業界はAIを保護するために、閉じたドアの後ろでレッドチームやその他の戦略を効果的に適用するかもしれないと論じている。
生成AIの評価のより堅牢なツールボックスに向けて、私たちは、私たちの推奨事項を、将来のAI赤チームプラクティスをガイドし、足場にすることを目的とした質問銀行に合成します。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。