論文の概要: Responsible AI in Business
- arxiv url: http://arxiv.org/abs/2602.13244v1
- Date: Sat, 31 Jan 2026 08:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.584501
- Title: Responsible AI in Business
- Title(参考訳): ビジネスにおける責任あるAI
- Authors: Stephan Sandfuchs, Diako Farooghi, Janis Mohr, Sarah Grewe, Markus Lemmen, Jörg Frochte,
- Abstract要約: 責任あるAIを、法的に準拠し、理解可能で、持続可能で、データ支配的な方法で、AIシステムを導入し、運用する中心となる4つの領域に沿って構築する。
まず、EU AI Actを、プロバイダとデプロイロールの区別を含むリスクベースの規制フレームワークとして論じる。
第二に、説明可能なAIを透明性と信頼の基礎として扱い、透明性、解釈可能性、説明可能性といった重要な概念を明確にする。
第3に、Green AIをカバーし、AIシステムはパフォーマンスだけでなく、エネルギーとリソース消費によって評価されるべきである、と強調している。
- 参考スコア(独自算出の注目度): 0.8213113085481418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) and Machine Learning (ML) have moved from research and pilot projects into everyday business operations, with generative AI accelerating adoption across processes, products, and services. This paper introduces the concept of Responsible AI for organizational practice, with a particular focus on small and medium-sized enterprises. It structures Responsible AI along four focal areas that are central for introducing and operating AI systems in a legally compliant, comprehensible, sustainable, and data-sovereign manner. First, it discusses the EU AI Act as a risk-based regulatory framework, including the distinction between provider and deployer roles and the resulting obligations such as risk assessment, documentation, transparency requirements, and AI literacy measures. Second, it addresses Explainable AI as a basis for transparency and trust, clarifying key notions such as transparency, interpretability, and explainability and summarizing practical approaches to make model behavior and decisions more understandable. Third, it covers Green AI, emphasizing that AI systems should be evaluated not only by performance but also by energy and resource consumption, and outlines levers such as model reuse, resource-efficient adaptation, continuous learning, model compression, and monitoring. Fourth, it examines local models (on-premise and edge) as an operating option that supports data protection, control, low latency, and strategic independence, including domain adaptation via fine-tuning and retrieval-augmented generation. The paper concludes with a consolidated set of next steps for establishing governance, documentation, secure operation, sustainability considerations, and an implementation roadmap.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)は、研究やパイロットプロジェクトから日々のビジネス運用へと移行し、プロセス、製品、サービス間の採用を加速している。
本稿では,中小企業を中心に,組織的実践のためのレスポンシブルAIの概念を紹介する。
責任あるAIを、法的に準拠し、理解可能で、持続可能で、データ支配的な方法で、AIシステムを導入し、運用する中心となる4つの領域に沿って構築する。
まず、リスクアセスメント、ドキュメント、透明性要件、AIリテラシー対策など、プロバイダとデプロイロールの区別を含むリスクベースの規制フレームワークとして、EU AI Actについて議論する。
第二に、説明可能なAIを透明性と信頼の基礎として扱い、透明性、解釈可能性、説明可能性といった重要な概念を明らかにし、モデルの振る舞いと決定をより理解しやすいものにするための実践的なアプローチを要約する。
第3に、Green AIをカバーし、パフォーマンスだけでなく、エネルギーとリソース消費によってAIシステムが評価されるべきであることを強調し、モデル再利用、リソース効率の適応、継続的学習、モデル圧縮、モニタリングといったレバーの概要を説明している。
第4に、データ保護、制御、低レイテンシ、戦略的独立性をサポートするオペレーティングオプションとして、ローカルモデル(オンプレミスとエッジ)を検討する。
この論文は、ガバナンス、ドキュメンテーション、安全な運用、持続可能性の考慮、実装ロードマップを確立するための次のステップをまとめて締めくくります。
関連論文リスト
- Toward Third-Party Assurance of AI Systems: Design Requirements, Prototype, and Early Testing [16.53658640529767]
我々は,AI評価のギャップに対処する,サードパーティのAI保証フレームワークを導入する。
我々は、利害の衝突を防ぎ、プロセスの信頼性と説明責任を確保するために、第三者の保証に焦点を当てる。
私たちの発見は、AI保証フレームワークが健全で包括的で、さまざまな組織的コンテキストで使用できるという、初期の証拠を示しています。
論文 参考訳(メタデータ) (2026-01-30T00:37:12Z) - Toward Safe and Responsible AI Agents: A Three-Pillar Model for Transparency, Accountability, and Trustworthiness [0.0]
本稿では,安全で信頼性の高いAIエージェントを開発し,運用するための概念的かつ運用的なフレームワークを提案する。
このフレームワークは、透明性、説明責任、信頼性を基礎とした三柱モデルに基づいている。
論文 参考訳(メタデータ) (2026-01-09T07:27:43Z) - Towards Responsible and Explainable AI Agents with Consensus-Driven Reasoning [4.226647687395254]
本稿では,多モデルコンセンサスと推論層ガバナンスに基づく実運用レベルのエージェントのためのResponsible(RAI)およびExplainable(XAI)AIエージェントアーキテクチャを提案する。
提案した設計では、異種LLMとVLMエージェントのコンソーシアムが独立して、共有入力コンテキストから候補出力を生成する。
専用の推論エージェントは、これらのアウトプットをまたいで構造化された統合を行い、安全と政策の制約を強制し、幻覚と偏見を緩和し、監査可能な証拠に基づく決定を生成する。
論文 参考訳(メタデータ) (2025-12-25T14:49:25Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - An Outlook on the Opportunities and Challenges of Multi-Agent AI Systems [32.48561526824382]
マルチエージェントAIシステム(MAS)は、内部生成モデルに基づいて対話、情報交換、意思決定を行う複数の自律エージェントで構成されている。
本稿では,MASを解析するための形式的枠組みについて概説する。
論文 参考訳(メタデータ) (2025-05-23T22:05:19Z) - HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - Responsible Artificial Intelligence Systems: A Roadmap to Society's Trust through Trustworthy AI, Auditability, Accountability, and Governance [37.10526074040908]
本稿では, 包括的観点から, 責任あるAIシステムの概念を考察する。
論文の最終目標は、責任あるAIシステムの設計におけるロードマップの提案である。
論文 参考訳(メタデータ) (2025-02-04T14:47:30Z) - Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution [35.68672391812135]
我々は,AIモデルの新たな分散パラダイムを実現するプリミティブであるOMLを紹介する。
OMLは、暗号的に強制された使用許可を維持しながら、ローカル実行のために自由に配布することができる。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開く。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。