論文の概要: Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications
- arxiv url: http://arxiv.org/abs/2409.16872v2
- Date: Thu, 05 Dec 2024 20:51:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:54:16.093068
- Title: Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications
- Title(参考訳): 倫理的かつスケーラブルな自動化 - ビジネスアプリケーションのためのガバナンスとコンプライアンスフレームワーク
- Authors: Haocheng Lin,
- Abstract要約: 本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The popularisation of applying AI in businesses poses significant challenges relating to ethical principles, governance, and legal compliance. Although businesses have embedded AI into their day-to-day processes, they lack a unified approach for mitigating its potential risks. This paper introduces a framework ensuring that AI must be ethical, controllable, viable, and desirable. Balancing these factors ensures the design of a framework that addresses its trade-offs, such as balancing performance against explainability. A successful framework provides practical advice for businesses to meet regulatory requirements in sectors such as finance and healthcare, where it is critical to comply with standards like GPDR and the EU AI Act. Different case studies validate this framework by integrating AI in both academic and practical environments. For instance, large language models are cost-effective alternatives for generating synthetic opinions that emulate attitudes to environmental issues. These case studies demonstrate how having a structured framework could enhance transparency and maintain performance levels as shown from the alignment between synthetic and expected distributions. This alignment is quantified using metrics like Chi-test scores, normalized mutual information, and Jaccard indexes. Future research should explore the framework's empirical validation in diverse industrial settings further, ensuring the model's scalability and adaptability.
- Abstract(参考訳): ビジネスにおけるAIの適用の普及は、倫理的原則、ガバナンス、法的コンプライアンスに関連する重要な課題を提起している。
企業はAIを日々のプロセスに組み込んでいるが、潜在的なリスクを軽減するための統一的なアプローチは欠如している。
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
これらの要因のバランスをとることで、パフォーマンスと説明可能性のバランスをとるなど、トレードオフに対処するフレームワークの設計が保証されます。
成功したフレームワークは、GPDRやEU AI Actのような標準に準拠することが不可欠である金融や医療などの分野における規制要件を満たすために、ビジネスに実践的なアドバイスを提供する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
例えば、大規模言語モデルは、環境問題に対する態度をエミュレートする合成意見を生成するためのコスト効率の良い代替手段である。
これらのケーススタディは、構造化されたフレームワークが、合成分布と期待分布の整合性から示すように、透明性を高め、パフォーマンスレベルを維持する方法を示している。
このアライメントは、Chi-testスコア、正規化された相互情報、Jaccardインデックスなどのメトリクスを使用して定量化される。
将来的な研究は、様々な産業環境におけるフレームワークの実証的検証をさらに探求し、モデルのスケーラビリティと適応性を確保することである。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Catalog of General Ethical Requirements for AI Certification [0.0]
我々は、これらの原則を技術に実装するためのツールに対して、全体的な倫理的要件と6つの倫理的原則を価値特有な推奨とともに提示する。
私たちの仕事は、信頼できるAIとAI認定のための最小限の倫理的要件を満たすための、潜在的な青写真として、利害関係者を対象としています。
論文 参考訳(メタデータ) (2024-08-22T10:58:41Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - AI in ESG for Financial Institutions: An Industrial Survey [4.893954917947095]
本稿では,ESGフレームワークの活性化におけるAIの必要性と影響を明らかにするために,産業環境を調査した。
調査では、分析能力、リスク評価、顧客エンゲージメント、報告精度など、ESGの主要な3つの柱にまたがるAIアプリケーションを分類した。
この論文は、ESG関連の銀行プロセスにおけるAI展開の倫理的側面を強調し、責任と持続可能なAIの衝動についても論じている。
論文 参考訳(メタデータ) (2024-02-03T02:14:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。