論文の概要: A Roadmap for Tamed Interactions with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.24819v1
- Date: Tue, 28 Oct 2025 13:46:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.597904
- Title: A Roadmap for Tamed Interactions with Large Language Models
- Title(参考訳): 大規模言語モデルとの無関係な相互作用のためのロードマップ
- Authors: Vincenzo Scotti, Jan Keim, Tobias Hey, Andreas Metzger, Anne Koziolek, Raffaela Mirandola,
- Abstract要約: 大規模言語モデル(LLM)によって駆動されるAI駆動ソフトウェアが誕生するのを私たちは目撃しています。
これらのLSMの応用は印象的であり、数え切れないほどに思えるが、その堅牢性は採用を妨げる。
LSLでは, LLM出力の制御, 相互作用の構造の強制, 検証, 検証, 説明可能性の両面を統合することで, 上記の限界に対処することを目指している。
- 参考スコア(独自算出の注目度): 5.133046277847902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are witnessing a bloom of AI-powered software driven by Large Language Models (LLMs). Although the applications of these LLMs are impressive and seemingly countless, their unreliability hinders adoption. In fact, the tendency of LLMs to produce faulty or hallucinated content makes them unsuitable for automating workflows and pipelines. In this regard, Software Engineering (SE) provides valuable support, offering a wide range of formal tools to specify, verify, and validate software behaviour. Such SE tools can be applied to define constraints over LLM outputs and, consequently, offer stronger guarantees on the generated content. In this paper, we argue that the development of a Domain Specific Language (DSL) for scripting interactions with LLMs using an LLM Scripting Language (LSL) may be key to improve AI-based applications. Currently, LLMs and LLM-based software still lack reliability, robustness, and trustworthiness, and the tools or frameworks to cope with these issues suffer from fragmentation. In this paper, we present our vision of LSL. With LSL, we aim to address the limitations above by exploring ways to control LLM outputs, enforce structure in interactions, and integrate these aspects with verification, validation, and explainability. Our goal is to make LLM interaction programmable and decoupled from training or implementation.
- Abstract(参考訳): 私たちは、Large Language Models (LLMs)によって駆動されるAI駆動のソフトウェアが芽生えているのを目撃しています。
これらのLSMの応用は印象的であり、数え切れないほどに思えるが、その信頼性の欠如は採用を妨げる。
実際、LLMが欠陥や幻覚的なコンテンツを生成する傾向は、ワークフローやパイプラインの自動化には適さない。
この点において、ソフトウェアエンジニアリング(SE)は、ソフトウェアの振る舞いを特定し、検証し、検証するための幅広い正式なツールを提供する、貴重なサポートを提供する。
このようなSEツールは、LLM出力に対する制約を定義するために利用することができ、その結果、生成されたコンテンツに対してより強力な保証を提供する。
本稿では LLM Scripting Language (LSL) を用いた LLM とのスクリプティングインタラクションのためのドメイン固有言語 (DSL) の開発が,AI ベースのアプリケーション改善の鍵となる可能性について論じる。
現在、LLMとLLMベースのソフトウェアは信頼性、堅牢性、信頼性に欠けており、これらの問題に対処するツールやフレームワークは断片化に悩まされている。
本稿では,LSLのビジョンについて述べる。
LSLでは, LLM出力の制御, 相互作用の構造の強制, 検証, 検証, 説明可能性の両面を統合することで, 上記の限界に対処することを目指している。
私たちの目標は、LLMインタラクションをプログラム可能とし、トレーニングや実装から切り離すことです。
関連論文リスト
- LLM4VV: Evaluating Cutting-Edge LLMs for Generation and Evaluation of Directive-Based Parallel Programming Model Compiler Tests [7.6818904666624395]
本稿では,コンパイラテストの生成にLLMを用いたデュアルLLMシステムと実験について述べる。
LLMは、品質の高いコンパイラテストを生成し、それらを自動的に検証する有望な可能性を持っていることは明らかである。
論文 参考訳(メタデータ) (2025-07-29T02:34:28Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Tokenization Matters! Degrading Large Language Models through Challenging Their Tokenization [12.418844515095035]
大規模言語モデル(LLM)は、特定のクエリに対する不正確な応答を生成する傾向がある。
不正確なトークン化は、LLMが入力を正確に理解するのを妨げている臨界点である。
我々は, LLMのトークン化に挑戦するために, 様々なオープンソースLLMの語彙をベースとして, $textbfADT (Adrial dataset for Tokenizer)$という逆データセットを構築した。
論文 参考訳(メタデータ) (2024-05-27T11:39:59Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - LLM Maybe LongLM: Self-Extend LLM Context Window Without Tuning [67.39585115936329]
LLMには、微調整なしで長いコンテキストを処理できる固有の能力がある、と我々は主張する。
バイレベルアテンション情報を構築することで,LLMのコンテキストウィンドウを拡張するためのSelfExtendを提案する。
複数のベンチマークで包括的な実験を行い、その結果、既存のLLMのコンテキストウィンドウ長を効果的に拡張できることが示されている。
論文 参考訳(メタデータ) (2024-01-02T18:30:51Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。