論文の概要: Machine Learning Model Integration with Open World Temporal Logic for Process Automation
- arxiv url: http://arxiv.org/abs/2506.17776v1
- Date: Sat, 21 Jun 2025 18:13:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.579113
- Title: Machine Learning Model Integration with Open World Temporal Logic for Process Automation
- Title(参考訳): プロセス自動化のためのオープンワールド時間論理を用いた機械学習モデル統合
- Authors: Dyuman Aditya, Colton Payne, Mario Leiva, Paulo Shakarian,
- Abstract要約: 本稿では,各種機械学習モデルの出力をPyReasonフレームワークに直接統合する新しい手法を提案する。
一般化されたアノテート論理におけるPyReasonの基盤は、様々なMLモデルの実数値出力をシームレスに組み込むことを可能にする。
この統合は、製造業、医療、ビジネスオペレーションなど、多くの領域にまたがる実用性を見出す。
- 参考スコア(独自算出の注目度): 0.13499500088995461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Machine Learning (ML) have yielded powerful models capable of extracting structured information from diverse and complex data sources. However, a significant challenge lies in translating these perceptual or extractive outputs into actionable, reasoned decisions within complex operational workflows. To address these challenges, this paper introduces a novel approach that integrates the outputs from various machine learning models directly with the PyReason framework, an open-world temporal logic programming reasoning engine. PyReason's foundation in generalized annotated logic allows for the seamless incorporation of real-valued outputs (e.g., probabilities, confidence scores) from diverse ML models, treating them as truth intervals within its logical framework. Crucially, PyReason provides mechanisms, implemented in Python, to continuously poll ML model outputs, convert them into logical facts, and dynamically recompute the minimal model, ensuring real-tine adaptive decision-making. Furthermore, its native support for temporal reasoning, knowledge graph integration, and fully explainable interface traces enables sophisticated analysis over time-sensitive process data and existing organizational knowledge. By combining the strengths of perception and extraction from ML models with the logical deduction and transparency of PyReason, we aim to create a powerful system for automating complex processes. This integration finds utility across numerous domains, including manufacturing, healthcare, and business operations.
- Abstract(参考訳): 機械学習(ML)の最近の進歩は、多様な複雑なデータソースから構造化された情報を抽出できる強力なモデルを生み出している。
しかしながら、重要な課題は、これらの知覚的または抽出的なアウトプットを、複雑な運用ワークフロー内で実行可能な、合理的な決定に変換することである。
これらの課題に対処するために、オープンワールドの時間論理プログラミング推論エンジンであるPyReasonフレームワークに直接機械学習モデルからの出力を統合する新しいアプローチを提案する。
一般化されたアノテート論理におけるPyReasonの基盤は、様々なMLモデルから実数値出力(例えば確率、信頼スコア)をシームレスに取り込み、それらを論理フレームワーク内で真理区間として扱うことを可能にする。
重要な点として、PyReasonはPythonで実装されたメカニズムを提供し、継続的にMLモデルの出力をポーリングし、それらを論理的な事実に変換し、最小限のモデルを動的に再計算し、実際の適応的な意思決定を保証する。
さらに、時間的推論、知識グラフの統合、完全に説明可能なインターフェーストレースに対するネイティブサポートにより、時間に敏感なプロセスデータと既存の組織的知識に関する高度な分析が可能になる。
MLモデルからの知覚と抽出の強みをPyReasonの論理的推論と透明性と組み合わせることで、複雑なプロセスを自動化する強力なシステムを構築することを目指している。
この統合は、製造業、医療、ビジネスオペレーションなど、多くの領域にまたがる実用性を見出す。
関連論文リスト
- Feature Engineering for Agents: An Adaptive Cognitive Architecture for Interpretable ML Monitoring [2.1205272468688574]
大規模言語モデルに基づくエージェントに特徴工学の原則を適用したMLモニタリングのための認知アーキテクチャを提案する。
決定手順モジュールは、リファクタリング、ブレークダウン、コンパイルという3つの重要なステップを通じて、機能エンジニアリングをシミュレートする。
複数のLCMを用いた実験により, 各種ベースラインと比較して精度が有意に向上し, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-06-11T13:48:25Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Evaluating Large Language Models for Real-World Engineering Tasks [75.97299249823972]
本稿では,実運用指向のエンジニアリングシナリオから得られた100以上の質問をキュレートしたデータベースを提案する。
このデータセットを用いて、4つの最先端の大規模言語モデル(LLM)を評価する。
以上の結果から,LLMは時間的および構造的推論において強みを示すが,抽象的推論や形式的モデリング,文脈に敏感な工学的論理にはかなり苦労することがわかった。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - Enhancing Large Language Models through Neuro-Symbolic Integration and Ontological Reasoning [0.0]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示すが、幻覚として知られる不正確さと論理的不整合に悩まされている。
本稿では,LLM出力の一貫性と信頼性を高めるために,記号的存在論的推論と機械学習を融合したニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-10T10:39:24Z) - Transformers Use Causal World Models in Maze-Solving Tasks [49.67445252528868]
我々は迷路解決タスクで訓練されたトランスフォーマーで世界モデルを特定する。
機能を抑圧するよりも、機能をアクティベートする方が簡単であることが分かりました。
位置符号化方式は、モデルの残留ストリーム内でのワールドモデルがどのように構成されているかに影響を与えるように見える。
論文 参考訳(メタデータ) (2024-12-16T15:21:04Z) - Control Industrial Automation System with Large Language Model Agents [2.2369578015657954]
本稿では,大規模言語モデルと産業自動化システムを統合するためのフレームワークを提案する。
フレームワークの中核には、産業タスク用に設計されたエージェントシステム、構造化プロンプト方法、イベント駆動情報モデリング機構がある。
コントリビューションには、フォーマルなシステム設計、概念実証実装、タスク固有のデータセットを生成する方法が含まれる。
論文 参考訳(メタデータ) (2024-09-26T16:19:37Z) - Unveiling LLM Mechanisms Through Neural ODEs and Control Theory [4.084134914321567]
本稿では,ニューラル正規微分方程式(Neural ODE)とロバスト制御理論を組み合わせて,大規模言語モデル(LLM)の解釈可能性と制御性を高める枠組みを提案する。
実験結果から、ニューラルODEと制御理論の統合は出力の一貫性とモデルの解釈可能性を大幅に向上させ、説明可能なAI技術の開発を前進させることが示された。
論文 参考訳(メタデータ) (2024-06-23T22:56:34Z) - AXOLOTL: Fairness through Assisted Self-Debiasing of Large Language
Model Outputs [20.772266479533776]
AXOLOTLはタスクやモデル間で不可知的に動作する新しい後処理フレームワークである。
バイアスを識別し、解像度を提案し、モデルにアウトプットを自己バイアスさせる。
このアプローチは計算コストを最小化し、モデル性能を保存する。
論文 参考訳(メタデータ) (2024-03-01T00:02:37Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。