論文の概要: Governance of Generative Artificial Intelligence for Companies
- arxiv url: http://arxiv.org/abs/2403.08802v1
- Date: Mon, 5 Feb 2024 14:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 05:40:54.651885
- Title: Governance of Generative Artificial Intelligence for Companies
- Title(参考訳): 企業における生成人工知能のガバナンス
- Authors: Johannes Schneider, Rene Abraham, Christian Meske,
- Abstract要約: GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本総説では, このギャップを最近の研究で埋めるものである。
当社のフレームワークは、ビジネス機会を活用するためのスコープ、目的、ガバナンスメカニズムを概説しています。
- 参考スコア(独自算出の注目度): 1.4003044924094596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Artificial Intelligence (GenAI), specifically large language models like ChatGPT, has swiftly entered organizations without adequate governance, posing both opportunities and risks. Despite extensive debates on GenAI's transformative nature and regulatory measures, limited research addresses organizational governance, encompassing technical and business perspectives. This review paper fills this gap by surveying recent works. It goes beyond mere summarization by developing a framework for GenAI governance within companies. Our framework outlines the scope, objectives, and governance mechanisms tailored to harness business opportunities and mitigate risks associated with GenAI integration. This research contributes a focused approach to GenAI governance, offering practical insights for companies navigating the challenges of responsible AI adoption. It is also valuable for a technical audience to broaden their perspective as increasingly ethical and business concerns gain in prevalence and allow them to identify novel research directions.
- Abstract(参考訳): 生成人工知能(GenAI)、特にChatGPTのような大きな言語モデルは、適切なガバナンスなしで組織に素早く入り、機会とリスクの両方を装っている。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は、技術的・ビジネス的な視点を包含する組織的ガバナンスに対処している。
本総説では, このギャップを最近の研究で埋めるものである。
企業内でGenAIガバナンスのフレームワークを開発することで、単なる要約以上のものになります。
我々のフレームワークは、GenAI統合に関連するリスクを軽減し、ビジネスの機会を活用するのに適したスコープ、目的、ガバナンスメカニズムを概説しています。
この研究は、GenAIガバナンスへの焦点を絞ったアプローチに貢献し、責任あるAI導入の課題をナビゲートする企業に対して、実践的な洞察を提供する。
また、倫理的・ビジネス的な懸念が広まり、新しい研究の方向性を特定できるという、技術的観衆の視点を広げることにも価値がある。
関連論文リスト
- Red-Teaming for Generative AI: Silver Bullet or Security Theater? [48.14185138002871]
我々は、AI産業における最近の赤チーム活動の事例を特定し、関連する研究文献を広範囲に調査し、AI赤チーム実践のスコープ、構造、基準を特徴づける。
分析の結果,活動の目的,評価対象のアーティファクト,活動の実施状況,その結果の判断など,AIの事前の方法と実践が複数の軸に沿って分散していることが判明した。
我々は、レッドチーム化は、GenAIモデルの行動改善を目的とした幅広い活動と態度を特徴付ける上で、価値ある大胆なアイデアであるかもしれないと論じる。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - The AI Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment [0.0]
我々は,GenAIツールを教育評価に統合するための,実用的でシンプルで十分に包括的なツールの概要を述べる。
AIアセスメント尺度(AIAS)は、教育者に対して、評価におけるGenAI使用の適切なレベルを選択する権限を与える。
実践的で柔軟なアプローチを採用することで、AIASは、教育におけるGenAIに関する現在の不確実性と不安に対処するための、非常に必要な出発点を形成することができる。
論文 参考訳(メタデータ) (2023-12-12T09:08:36Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist [10.980912140648648]
我々は医療における創造的人工知能(GenAI)に関する倫理的議論のスコーピングレビューを行う。
我々は,GenAI研究における倫理的議論の包括的評価と透明な文書化のためのチェックリストを開発することにより,ギャップを減らすことを提案する。
論文 参考訳(メタデータ) (2023-11-02T11:55:07Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Generative AI in the Construction Industry: Opportunities & Challenges [2.562895371316868]
建設部門におけるジェネレーティブAI(GenAI)導入の機会と課題を調査する研究は、現在進行中である。
本研究は、文献における反映された知覚を掘り下げ、プログラムベースのワードクラウドと周波数分析を用いて産業的知覚を分析する。
本稿では,概念的GenAI実装フレームワークを推奨し,実践的勧告を提供し,今後の研究課題を要約し,GenAIの今後の研究展開を促進するための基礎文献を構築する。
論文 参考訳(メタデータ) (2023-09-19T18:20:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。