論文の概要: From over-reliance to smart integration: using Large-Language Models as translators between specialized modeling and simulation tools
- arxiv url: http://arxiv.org/abs/2506.11141v1
- Date: Wed, 11 Jun 2025 02:39:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.506409
- Title: From over-reliance to smart integration: using Large-Language Models as translators between specialized modeling and simulation tools
- Title(参考訳): 過信頼からスマートな統合へ--専門モデリングとシミュレーションツール間の翻訳としてLarge-Language Modelsを使用
- Authors: Philippe J. Giabbanelli, John Beverley, Istvan David, Andreas Tolk,
- Abstract要約: 大規模言語モデル(LLM)はモデリングとシミュレーション(M&S)に変革をもたらす
過信リスクは曖昧さ、論理的ショートカット、幻覚によって品質を損なう。
本稿では,M&Sタスクにおける複雑性を軽減するため,特殊なツール間でLLMを翻訳器として統合することを提唱する。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) offer transformative potential for Modeling & Simulation (M&S) through natural language interfaces that simplify workflows. However, over-reliance risks compromising quality due to ambiguities, logical shortcuts, and hallucinations. This paper advocates integrating LLMs as middleware or translators between specialized tools to mitigate complexity in M&S tasks. Acting as translators, LLMs can enhance interoperability across multi-formalism, multi-semantics, and multi-paradigm systems. We address two key challenges: identifying appropriate languages and tools for modeling and simulation tasks, and developing efficient software architectures that integrate LLMs without performance bottlenecks. To this end, the paper explores LLM-mediated workflows, emphasizes structured tool integration, and recommends Low-Rank Adaptation-based architectures for efficient task-specific adaptations. This approach ensures LLMs complement rather than replace specialized tools, fostering high-quality, reliable M&S processes.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ワークフローを単純化する自然言語インターフェースを通じて、モデリングとシミュレーション(M&S)の変革的なポテンシャルを提供する。
しかし、過信リスクは曖昧さ、論理的ショートカット、幻覚によって品質を損なう。
本稿では、M&Sタスクの複雑さを軽減するため、特殊なツール間でLLMをミドルウェアや翻訳機として統合することを提唱する。
LLMはトランスレータとして機能し、マルチフォーマット、マルチセマンティック、マルチパラダイムシステム間の相互運用性を高めることができる。
モデリングやシミュレーションのタスクに適した言語やツールを特定し、性能ボトルネックを伴わずにLLMを統合する効率的なソフトウェアアーキテクチャを開発する。
この目的のために、LLMによるワークフローを調査し、構造化ツールの統合を強調し、タスク固有の効率的な適応のためにローランド適応ベースのアーキテクチャを推奨する。
このアプローチにより、LLMは特別なツールを置き換えるよりも補完し、高品質で信頼性の高いM&Sプロセスを育むことができる。
関連論文リスト
- Training-free LLM Merging for Multi-task Learning [74.93025750111019]
Hi-Mergingは、異なる特殊なLSMを単一のモデルに統合するためのトレーニング不要の方法である。
中国語と英語の両方における複数選択および質問応答タスクの実験は、マルチタスク学習におけるHi-Mergingの能力を検証する。
論文 参考訳(メタデータ) (2025-06-14T07:21:11Z) - EIFBENCH: Extremely Complex Instruction Following Benchmark for Large Language Models [65.48902212293903]
大規模言語モデル(LLM)を評価するためのEIFBENCH(Extremely Complex Instruction following Benchmark)を提案する。
EIFBENCHにはマルチタスクシナリオが含まれており、多様なタスクタイプを同時に総合的に評価することができる。
また,LLMのマルチタスクワークフローを正確に満たす能力を高めるために,セグメントポリシー最適化(SegPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-10T02:39:55Z) - Dense Communication between Language Models [41.631010796783706]
本稿では,Large Language Models (LLM) 間の直接密度ベクトル通信のパラダイムを提案する。
提案手法は,LSMが他と相互作用する際の不要な埋め込みや非埋め込みのステップを排除し,より効率的な情報伝達を可能にする。
トレーニングコストが0.1%未満で、同様のサイズでLLMに匹敵するパフォーマンスを実現するLMNetをトレーニングする。
論文 参考訳(メタデータ) (2025-05-19T05:56:06Z) - Collaboration is all you need: LLM Assisted Safe Code Translation [4.3764649156831235]
UniTranslatorは、複数のコンパクトLLM間の協調的な取り組みとしてコード翻訳を再想像するフレームワークである。
特殊なエージェントのインタラクションを編成することによって、UniTranslatorは、より大きなモノリシックモデルに匹敵する精度と効率のレベルを達成する。
論文 参考訳(メタデータ) (2025-03-14T09:42:07Z) - LUSIFER: Language Universal Space Integration for Enhanced Multilingual Embeddings with Large Language Models [89.13128402847943]
LUSIFERは,LLMをベースとした多言語タスクの埋め込みモデルに,多言語監視を必要とせずに適用可能なゼロショット方式である。
LUSIFERのアーキテクチャは多言語エンコーダを組み、言語ユニバーサル学習者として機能し、埋め込み固有のタスクに最適化されたLLMベースの埋め込みモデルと組み合わせている。
5つの主要な埋め込みタスク、123の多様なデータセット、14言語にわたるカバレッジを含む新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-01T15:43:07Z) - Large Language Models for Constructing and Optimizing Machine Learning Workflows: A Survey [4.917456871628609]
複雑なタスクに対処するための効果的な機械学習(ML)を構築することは、Automatic ML(AutoML)コミュニティの主要な焦点である。
最近、MLへのLLM(Large Language Models)の統合は、MLパイプラインのさまざまなステージを自動化し、拡張する大きな可能性を示している。
論文 参考訳(メタデータ) (2024-11-11T21:54:26Z) - Multi-Programming Language Sandbox for LLMs [78.99934332554963]
大規模言語モデル(LLM)用のコンパイラと分析ツールから統一的で包括的なフィードバックを提供するように設計された、アウト・オブ・ザ・ボックスのマルチプログラミング言語サンドボックス
コードのプログラミング言語を自動的に識別し、独立したサブサンドボックス内でコンパイルして実行することで、安全性と安定性を確保することができる。
論文 参考訳(メタデータ) (2024-10-30T14:46:43Z) - LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [70.19607283302712]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
具体的には,l-MLLMとs-MLLMの視覚的テキスト出力分布のばらつきを最小限に抑えるために,MDist(Multimodal Distillation)を導入する。
また,S-MLLMの可能性を完全に活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - SEA: Supervised Embedding Alignment for Token-Level Visual-Textual Integration in MLLMs [40.74693126923826]
MLLM(Multimodal Large Language Models)は近年,知覚能力や推論能力が著しく向上している。
イメージレベルの監督を施したトレーニングアダプタは、しばしば重大なミスアライメントをもたらす。
本稿では,視覚言語による事前学習モデルを活用したトークンレベルのアライメント手法であるSupervised Embedding Alignment (SEA)を紹介する。
論文 参考訳(メタデータ) (2024-08-21T17:58:02Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - A Framework to Model ML Engineering Processes [1.9744907811058787]
機械学習(ML)ベースのシステムの開発は複雑で、多様なスキルセットを持つ複数の学際的なチームが必要である。
現在のプロセスモデリング言語は、そのようなシステムの開発を説明するには適していない。
ドメイン固有言語を中心に構築されたMLベースのソフトウェア開発プロセスのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-04-29T09:17:36Z) - Mixture-of-Instructions: Aligning Large Language Models via Mixture Prompting [7.103987978402038]
我々はMixture-of-Instructions (MoI)と呼ばれる新しいテクニックを紹介する。
MoIは命令パッキングと多様なシステムプロンプトを組み合わせて言語モデルのアライメント効率を高める戦略を採用している。
提案手法はオープンソースQwen-7B-chatモデルに適用され,Qwen-SFT-MoIの開発が完了した。
論文 参考訳(メタデータ) (2024-04-29T03:58:12Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。