論文の概要: Governance of Generative Artificial Intelligence for Companies
- arxiv url: http://arxiv.org/abs/2403.08802v3
- Date: Tue, 03 Dec 2024 09:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:10.779315
- Title: Governance of Generative Artificial Intelligence for Companies
- Title(参考訳): 企業における生成人工知能のガバナンス
- Authors: Johannes Schneider, Pauline Kuss, Rene Abraham, Christian Meske,
- Abstract要約: ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
- 参考スコア(独自算出の注目度): 1.2818275315985972
- License:
- Abstract: Generative Artificial Intelligence (GenAI), specifically large language models like ChatGPT, has swiftly entered organizations without adequate governance, posing both opportunities and risks. Despite extensive debates on GenAI's transformative nature and regulatory measures, limited research addresses organizational governance, encompassing technical and business perspectives. Although numerous frameworks for governance of AI exist, it is not clear to what extent they apply to GenAI. Our review paper fills this gap by surveying recent works with the purpose of better understanding fundamental characteristics of GenAI and adjusting prior frameworks specifically towards GenAI governance within companies. To do so, it extends Nickerson's framework development processes to include prior conceptualizations. Our framework outlines the scope, objectives, and governance mechanisms tailored to harness business opportunities as well as mitigate risks associated with GenAI integration. Our research contributes a focused approach to GenAI governance, offering practical insights for companies navigating the challenges of GenAI adoption and highlighting research gaps.
- Abstract(参考訳): 生成人工知能(GenAI)、特にChatGPTのような大きな言語モデルは、適切なガバナンスなしで組織に素早く入り、機会とリスクの両方を装っている。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は、技術的・ビジネス的な視点を包含する組織的ガバナンスに対処している。
AIのガバナンスのためのフレームワークは数多く存在するが、GenAIにどの程度適用されているかは明らかになっていない。
本稿では、GenAIの基本的特徴をよりよく理解し、企業内におけるGenAIガバナンスに特化して以前のフレームワークを調整することを目的として、最近の研究を調査することで、このギャップを埋める。
これを実現するために、Nickerson氏のフレームワーク開発プロセスを拡張し、事前の概念化を含む。
当社のフレームワークは、GenAI統合に関連するリスクを軽減するとともに、ビジネス機会を活用するためのスコープ、目的、ガバナンスメカニズムを概説しています。
我々の研究は、GenAIガバナンスへの焦点を絞ったアプローチに貢献し、GenAI導入の課題をナビゲートし、研究ギャップを強調する企業に対して実践的な洞察を提供する。
関連論文リスト
- Generative AI and Agency in Education: A Critical Scoping Review and Thematic Analysis [0.0]
本稿では,ジェネレーティブAI(GenAI)と教育機関の関係を概観し,批判的デジタル教育のレンズを通して利用可能な文献を分析した。
我々は,デジタル空間における制御,可変エンゲージメントとアクセシビリティ,代理店の表記変更という3つの重要なテーマを,AIが支援するハイブリッドセマンティック分析によって明らかにした。
この結果から,GenAIは個人化や支援を通じて学習機関を強化できるが,教育の不平等が悪化し,学習者の自律性が低下する危険性も示唆された。
論文 参考訳(メタデータ) (2024-11-01T14:40:31Z) - Environment Scan of Generative AI Infrastructure for Clinical and Translational Science [35.90108933392196]
本研究は,36施設にわたる臨床・翻訳科学のための全国ネットワークにおける生成型AI(GenAI)基盤の包括的スキャンを報告する。
本研究は、GenAI統合の現状を考察し、ステークホルダーの役割、ガバナンス構造、倫理的考察に焦点をあてる。
論文 参考訳(メタデータ) (2024-09-28T01:53:13Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - The AI Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment [0.0]
我々は,GenAIツールを教育評価に統合するための,実用的でシンプルで十分に包括的なツールの概要を述べる。
AIアセスメント尺度(AIAS)は、教育者に対して、評価におけるGenAI使用の適切なレベルを選択する権限を与える。
実践的で柔軟なアプローチを採用することで、AIASは、教育におけるGenAIに関する現在の不確実性と不安に対処するための、非常に必要な出発点を形成することができる。
論文 参考訳(メタデータ) (2023-12-12T09:08:36Z) - Generative AI in the Construction Industry: Opportunities & Challenges [2.562895371316868]
建設部門におけるジェネレーティブAI(GenAI)導入の機会と課題を調査する研究は、現在進行中である。
本研究は、文献における反映された知覚を掘り下げ、プログラムベースのワードクラウドと周波数分析を用いて産業的知覚を分析する。
本稿では,概念的GenAI実装フレームワークを推奨し,実践的勧告を提供し,今後の研究課題を要約し,GenAIの今後の研究展開を促進するための基礎文献を構築する。
論文 参考訳(メタデータ) (2023-09-19T18:20:49Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。