論文の概要: Governance of Generative Artificial Intelligence for Companies
- arxiv url: http://arxiv.org/abs/2403.08802v3
- Date: Tue, 03 Dec 2024 09:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:10.779315
- Title: Governance of Generative Artificial Intelligence for Companies
- Title(参考訳): 企業における生成人工知能のガバナンス
- Authors: Johannes Schneider, Pauline Kuss, Rene Abraham, Christian Meske,
- Abstract要約: ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
- 参考スコア(独自算出の注目度): 1.2818275315985972
- License:
- Abstract: Generative Artificial Intelligence (GenAI), specifically large language models like ChatGPT, has swiftly entered organizations without adequate governance, posing both opportunities and risks. Despite extensive debates on GenAI's transformative nature and regulatory measures, limited research addresses organizational governance, encompassing technical and business perspectives. Although numerous frameworks for governance of AI exist, it is not clear to what extent they apply to GenAI. Our review paper fills this gap by surveying recent works with the purpose of better understanding fundamental characteristics of GenAI and adjusting prior frameworks specifically towards GenAI governance within companies. To do so, it extends Nickerson's framework development processes to include prior conceptualizations. Our framework outlines the scope, objectives, and governance mechanisms tailored to harness business opportunities as well as mitigate risks associated with GenAI integration. Our research contributes a focused approach to GenAI governance, offering practical insights for companies navigating the challenges of GenAI adoption and highlighting research gaps.
- Abstract(参考訳): 生成人工知能(GenAI)、特にChatGPTのような大きな言語モデルは、適切なガバナンスなしで組織に素早く入り、機会とリスクの両方を装っている。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は、技術的・ビジネス的な視点を包含する組織的ガバナンスに対処している。
AIのガバナンスのためのフレームワークは数多く存在するが、GenAIにどの程度適用されているかは明らかになっていない。
本稿では、GenAIの基本的特徴をよりよく理解し、企業内におけるGenAIガバナンスに特化して以前のフレームワークを調整することを目的として、最近の研究を調査することで、このギャップを埋める。
これを実現するために、Nickerson氏のフレームワーク開発プロセスを拡張し、事前の概念化を含む。
当社のフレームワークは、GenAI統合に関連するリスクを軽減するとともに、ビジネス機会を活用するためのスコープ、目的、ガバナンスメカニズムを概説しています。
我々の研究は、GenAIガバナンスへの焦点を絞ったアプローチに貢献し、GenAI導入の課題をナビゲートし、研究ギャップを強調する企業に対して実践的な洞察を提供する。
関連論文リスト
- Environment Scan of Generative AI Infrastructure for Clinical and Translational Science [35.90108933392196]
本研究は,36施設にわたる臨床・翻訳科学のための全国ネットワークにおける生成型AI(GenAI)基盤の包括的スキャンを報告する。
本研究は、GenAI統合の現状を考察し、ステークホルダーの役割、ガバナンス構造、倫理的考察に焦点をあてる。
論文 参考訳(メタデータ) (2024-09-28T01:53:13Z) - Navigating Governance Paradigms: A Cross-Regional Comparative Study of Generative AI Governance Processes & Principles [19.25514463100802]
本稿では, リスク, ルール, 結果, 原則, あるいは世界中のさまざまな地域をまたがる混合に基づく, 初期段階および多様なガバナンスアプローチのニュアンスを明らかにすることを目的とする。
本研究は、欧州連合(EU)、米国(米国)、中国(CN)、カナダ(CA)、英国(UK)、シンガポール(SG)の6つの領域の統治アプローチに基づく、調和したGenAIフレームワーク「H-GenAIGF」を紹介する。
論文 参考訳(メタデータ) (2024-08-14T08:16:44Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - The AI Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment [0.0]
我々は,GenAIツールを教育評価に統合するための,実用的でシンプルで十分に包括的なツールの概要を述べる。
AIアセスメント尺度(AIAS)は、教育者に対して、評価におけるGenAI使用の適切なレベルを選択する権限を与える。
実践的で柔軟なアプローチを採用することで、AIASは、教育におけるGenAIに関する現在の不確実性と不安に対処するための、非常に必要な出発点を形成することができる。
論文 参考訳(メタデータ) (2023-12-12T09:08:36Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Generative AI in the Construction Industry: Opportunities & Challenges [2.562895371316868]
建設部門におけるジェネレーティブAI(GenAI)導入の機会と課題を調査する研究は、現在進行中である。
本研究は、文献における反映された知覚を掘り下げ、プログラムベースのワードクラウドと周波数分析を用いて産業的知覚を分析する。
本稿では,概念的GenAI実装フレームワークを推奨し,実践的勧告を提供し,今後の研究課題を要約し,GenAIの今後の研究展開を促進するための基礎文献を構築する。
論文 参考訳(メタデータ) (2023-09-19T18:20:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。