論文の概要: From Accuracy to Impact: The Impact-Driven AI Framework (IDAIF) for Aligning Engineering Architecture with Theory of Change
- arxiv url: http://arxiv.org/abs/2512.08449v1
- Date: Tue, 09 Dec 2025 10:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.916056
- Title: From Accuracy to Impact: The Impact-Driven AI Framework (IDAIF) for Aligning Engineering Architecture with Theory of Change
- Title(参考訳): 正確性から影響へ:変化の理論によるエンジニアリングアーキテクチャのアラインメントのためのインパクト駆動型AIフレームワーク(IDAIF)
- Authors: Yong-Woon Kim,
- Abstract要約: インパクト駆動型AIフレームワーク(IDAIF、Impact-Driven AI Framework)は、変化の理論(ToC)と現代の人工知能システム設計を統合する新しいアーキテクチャ方法論である。
IDAIFは、ToCの5段階モデルと対応するAIアーキテクチャレイヤの体系的なマッピングを確立することで、このギャップに対処する。
3つのケーススタディは、医療、サイバーセキュリティ、ソフトウェアエンジニアリングドメインにまたがるIDAIFアプリケーションを実証している。
- 参考スコア(独自算出の注目度): 0.40611352512781873
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces the Impact-Driven AI Framework (IDAIF), a novel architectural methodology that integrates Theory of Change (ToC) principles with modern artificial intelligence system design. As AI systems increasingly influence high-stakes domains including healthcare, finance, and public policy, the alignment problem--ensuring AI behavior corresponds with human values and intentions--has become critical. Current approaches predominantly optimize technical performance metrics while neglecting the sociotechnical dimensions of AI deployment. IDAIF addresses this gap by establishing a systematic mapping between ToC's five-stage model (Inputs-Activities-Outputs-Outcomes-Impact) and corresponding AI architectural layers (Data Layer-Pipeline Layer-Inference Layer-Agentic Layer-Normative Layer). Each layer incorporates rigorous theoretical foundations: multi-objective Pareto optimization for value alignment, hierarchical multi-agent orchestration for outcome achievement, causal directed acyclic graphs (DAGs) for hallucination mitigation, and adversarial debiasing with Reinforcement Learning from Human Feedback (RLHF) for fairness assurance. We provide formal mathematical formulations for each component and introduce an Assurance Layer that manages assumption failures through guardian architectures. Three case studies demonstrate IDAIF application across healthcare, cybersecurity, and software engineering domains. This framework represents a paradigm shift from model-centric to impact-centric AI development, providing engineers with concrete architectural patterns for building ethical, trustworthy, and socially beneficial AI systems.
- Abstract(参考訳): 本稿では,現代人工知能システム設計に変化理論(ToC)の原則を統合する新しいアーキテクチャ方法論であるImpact-Driven AI Framework(IDAIF)を紹介する。
AIシステムは、医療、金融、公共政策などの高度な領域にますます影響を及ぼすにつれて、AIの振る舞いの調整は人間の価値観や意図と一致し、批判的になる。
現在のアプローチは主に、AIデプロイメントの社会技術的側面を無視しながら、技術的パフォーマンスメトリクスを最適化する。
IDAIFは、ToCの5段階モデル(Inputs-Activities-Outcomes-Impact)と対応するAIアーキテクチャレイヤ(Data Layer-Pipeline Layer-Inference Layer-Agentic Layer-Normative Layer)の体系的なマッピングを確立することで、このギャップに対処する。
各層には、価値アライメントのための多目的パレート最適化、成果達成のための階層的マルチエージェントオーケストレーション、幻覚緩和のための因果方向の非循環グラフ(DAG)、公正な保証のための人間フィードバックからの強化学習(RLHF)による対向的デバイアスなど、厳密な理論基盤が組み込まれている。
各コンポーネントに公式な数学的定式化を提供し、保護アーキテクチャを通じて仮定失敗を管理する保証層を導入します。
3つのケーススタディは、医療、サイバーセキュリティ、ソフトウェアエンジニアリングドメインにまたがるIDAIFアプリケーションを実証している。
このフレームワークは、モデル中心のAI開発からインパクト中心のAI開発へのパラダイムシフトであり、倫理的で信頼性があり、社会的に有益なAIシステムを構築するための具体的なアーキテクチャパターンを提供する。
関連論文リスト
- Rethinking the Role of Dynamic Sparse Training for Scalable Deep Reinforcement Learning [58.533203990515034]
ニューラルネットワークのスケーリングは機械学習における画期的な進歩をもたらしたが、このパラダイムは深層強化学習(DRL)では失敗している。
我々は、動的スパーストレーニング戦略が、アーキテクチャの改善によって確立された主要なスケーラビリティ基盤を補完するモジュール固有の利点を提供することを示す。
アーキテクチャ改善の利点を生かした実践的なフレームワークであるModule-Specific Training (MST) にこれらの知見を精査し、アルゴリズムの修正なしに様々なRLアルゴリズムをまたいだ大幅なスケーラビリティ向上を示す。
論文 参考訳(メタデータ) (2025-10-14T03:03:08Z) - Creative Adversarial Testing (CAT): A Novel Framework for Evaluating Goal-Oriented Agentic AI Systems [0.0]
CAT(Creative Adversarial Testing)は、エージェントAIタスクとシステムの意図する目的との間の複雑な関係をキャプチャして分析するために設計された、新しいアプローチである。
我々は、Alexa+オーディオサービスに倣った合成相互作用データを用いて、CATフレームワークを広範囲にシミュレーションすることで検証する。
我々の結果は、CATフレームワークが目標とタスクのアライメントに関する前例のない洞察を提供し、エージェントAIシステムのより効率的な最適化と開発を可能にしていることを実証している。
論文 参考訳(メタデータ) (2025-09-26T23:52:20Z) - The Architecture of AI Transformation: Four Strategic Patterns and an Emerging Frontier [0.0]
95%の企業が、AIデプロイメントによる測定可能な利益の影響を報告していない。
本稿では,AI戦略を2つの独立した次元に沿って再認識する2x2フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-02T21:57:58Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - From the Pursuit of Universal AGI Architecture to Systematic Approach to Heterogenous AGI: Addressing Alignment, Energy, & AGI Grand Challenges [3.5897534810405403]
SAGIは、システム設計原則を利用して、エネルギーの壁とアライメントの課題を克服する、AIの体系的アプローチである。
システム設計は、AGIの目標と保証を達成し、古典的シンボリック、創発的、ハイブリッドなアプローチに取って代わる上で、より基本的なものである、と我々は主張する。
論文 参考訳(メタデータ) (2023-10-23T18:20:54Z) - Navigating the Complexity of Generative AI Adoption in Software
Engineering [6.190511747986327]
ソフトウェア工学における生成人工知能(AI)ツールの採用パターンについて検討した。
個人レベル、技術レベル、社会的レベルの影響要因を分析した。
論文 参考訳(メタデータ) (2023-07-12T11:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。