論文の概要: Achieving Trustworthy Real-Time Decision Support Systems with Low-Latency Interpretable AI Models
- arxiv url: http://arxiv.org/abs/2506.20018v1
- Date: Tue, 24 Jun 2025 21:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.538236
- Title: Achieving Trustworthy Real-Time Decision Support Systems with Low-Latency Interpretable AI Models
- Title(参考訳): 低レイテンシ解釈可能なAIモデルによる信頼できるリアルタイム意思決定支援システムの実現
- Authors: Zechun Deng, Ziwei Liu, Ziqian Bi, Junhao Song, Chia Xin Liang, Joe Yeong, Junfeng Hao,
- Abstract要約: 本稿では,低遅延AIモデルを利用したリアルタイム意思決定支援システムについて検討する。
これは、包括的なAI駆動意思決定ツール、エッジ-IoTテクノロジとの統合、効果的なヒューマン-AIチームワークのためのアプローチの最近の進歩をまとめるものだ。
結論は、この急速に変化する領域における将来のブレークスルーの舞台となった。
- 参考スコア(独自算出の注目度): 26.65052167103414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper investigates real-time decision support systems that leverage low-latency AI models, bringing together recent progress in holistic AI-driven decision tools, integration with Edge-IoT technologies, and approaches for effective human-AI teamwork. It looks into how large language models can assist decision-making, especially when resources are limited. The research also examines the effects of technical developments such as DeLLMa, methods for compressing models, and improvements for analytics on edge devices, while also addressing issues like limited resources and the need for adaptable frameworks. Through a detailed review, the paper offers practical perspectives on development strategies and areas of application, adding to the field by pointing out opportunities for more efficient and flexible AI-supported systems. The conclusions set the stage for future breakthroughs in this fast-changing area, highlighting how AI can reshape real-time decision support.
- Abstract(参考訳): 本稿では、低レイテンシAIモデルを活用するリアルタイム意思決定支援システムについて検討し、最近の総合的なAI駆動意思決定ツールの進歩、エッジIoT技術との統合、効果的なヒューマンAIチームワークへのアプローチについて考察する。
大規模な言語モデルは、特にリソースが限られている場合、意思決定をいかに支援できるかを考察する。
また、DeLLMaのような技術開発の影響、モデルを圧縮する方法、エッジデバイスでのアナリティクスの改善、リソースの制限や適応可能なフレームワークの必要性といった問題にも対処する。
詳細なレビューを通じて、この論文は、開発戦略と応用分野に関する実践的な視点を提供し、より効率的で柔軟なAI支援システムのための機会を指摘することによって、この分野に追加する。
結論は、この急速に変化する領域における将来のブレークスルーの舞台となり、AIがリアルタイムな意思決定支援をどのように作り直すかを強調した。
関連論文リスト
- Onboard Optimization and Learning: A Survey [10.511932152633253]
オンボード学習は、エッジAIにおける変革的なアプローチであり、リソース制約のあるデバイス上で、リアルタイムデータ処理、意思決定、適応モデルのトレーニングを可能にする。
しかし、オンボード学習は、限られた計算リソース、高い推論コスト、セキュリティ脆弱性といった課題に直面している。
本調査では,モデル効率の最適化,推論の高速化,分散デバイス間の協調学習を支援する技術について検討する。
論文 参考訳(メタデータ) (2025-05-07T07:47:14Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [59.52058740470727]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Empowering Edge Intelligence: A Comprehensive Survey on On-Device AI Models [16.16798813072285]
人工知能(AI)技術の急速な進歩により、エッジと端末デバイスへのAIモデルの展開が増加している。
この調査は、オンデバイスAIモデルの現状、技術的な課題、今後のトレンドを包括的に調査する。
論文 参考訳(メタデータ) (2025-03-08T02:59:51Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。