論文の概要: LLM Context Conditioning and PWP Prompting for Multimodal Validation of Chemical Formulas
- arxiv url: http://arxiv.org/abs/2505.12257v1
- Date: Sun, 18 May 2025 06:33:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.125031
- Title: LLM Context Conditioning and PWP Prompting for Multimodal Validation of Chemical Formulas
- Title(参考訳): 化学式マルチモーダル検証のためのLLM条件とPWPプロンプト
- Authors: Evgeny Markhasin,
- Abstract要約: 本研究では,PWP(Persistent Prompting, Persistent Prompting, パーシステント・プロンプト・プリンティング)の原理によって誘導される構造的文脈条件付けについて, 推論時にその振る舞いを調節するための方法論的戦略として検討する。
このアプローチは、正確な検証タスクのために、容易に利用できる汎用の大規模言語モデル(LLM)の信頼性を高めるように設計されている。
基本的なプロンプトは信頼できないが、PLMの分析的考え方を厳格に条件付けるためにPWP構造を適用するアプローチは、両方のモデルでテキストエラーの識別を改善するように見えた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Identifying subtle technical errors within complex scientific and technical documents, especially those requiring multimodal interpretation (e.g., formulas in images), presents a significant hurdle for Large Language Models (LLMs) whose inherent error-correction tendencies can mask inaccuracies. This exploratory proof-of-concept (PoC) study investigates structured LLM context conditioning, informed by Persistent Workflow Prompting (PWP) principles, as a methodological strategy to modulate this LLM behavior at inference time. The approach is designed to enhance the reliability of readily available, general-purpose LLMs (specifically Gemini 2.5 Pro and ChatGPT Plus o3) for precise validation tasks, crucially relying only on their standard chat interfaces without API access or model modifications. To explore this methodology, we focused on validating chemical formulas within a single, complex test paper with known textual and image-based errors. Several prompting strategies were evaluated: while basic prompts proved unreliable, an approach adapting PWP structures to rigorously condition the LLM's analytical mindset appeared to improve textual error identification with both models. Notably, this method also guided Gemini 2.5 Pro to repeatedly identify a subtle image-based formula error previously overlooked during manual review, a task where ChatGPT Plus o3 failed in our tests. These preliminary findings highlight specific LLM operational modes that impede detail-oriented validation and suggest that PWP-informed context conditioning offers a promising and highly accessible technique for developing more robust LLM-driven analytical workflows, particularly for tasks requiring meticulous error detection in scientific and technical documents. Extensive validation beyond this limited PoC is necessary to ascertain broader applicability.
- Abstract(参考訳): 複雑な科学的・技術的文書、特にマルチモーダルな解釈を必要とするもの(例:画像の式)の中で微妙な技術的誤りを特定することは、固有の誤り訂正傾向が不正確さを隠蔽する大きな言語モデル(LLM)にとって重要なハードルとなる。
The Exploratory proof-of-concept (PoC) study investigateds structured LLM context conditioning, information by Persistent Workflow Prompting (PWP) principles, as a methodological strategy to modulated this LLM behavior at inference time。
このアプローチは、APIアクセスやモデル修正なしに標準のチャットインターフェースにのみ依存して、容易に利用できる汎用LLM(特にGemini 2.5 ProとChatGPT Plus o3)の信頼性を高めるように設計されている。
本手法を探索するために,1つの複雑なテスト用紙内の化学式と既知のテキストおよび画像に基づく誤りの検証に焦点をあてた。
基本的なプロンプトは信頼できないが、PLMの分析的考え方を厳格に条件付けるためにPWP構造を適用するアプローチは、両方のモデルでテキストエラーの識別を改善するように見えた。
また、この手法では、手作業で見落としていた微妙な画像ベースの公式エラーを繰り返し検出するようにGemini 2.5 Proを誘導しています。
これらの予備的な知見は、詳細指向の検証を妨げる特定のLCM動作モードを強調し、PWPインフォームドコンテキストコンディショニングは、より堅牢なLCM駆動分析ワークフローの開発、特に科学的および技術的文書における微妙なエラー検出を必要とするタスクに対して、有望かつ高可用性な技術を提供することを示唆している。
この限定されたPoCを超える広範な検証は、より広範な適用性を確認するために必要である。
関連論文リスト
- AI-Driven Scholarly Peer Review via Persistent Workflow Prompting, Meta-Prompting, and Meta-Reasoning [0.0]
本稿では,PWP(Persistent Prompting)について紹介する。
本稿では,実験化学原稿の批判的分析のための概念実証PWPプロンプトを提案する。
我々は,このPWPプロンプトを,専門家レビューの体系化を目的としたメタプロンプト技術とメタ推論の反復的適用により開発する。
論文 参考訳(メタデータ) (2025-05-06T09:06:18Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
2つの重要な特徴を持つ新しいRECデータセットを導入する。第一に、オブジェクトカテゴリ、属性、関係性に関する詳細な推論を必要とする、制御可能な難易度で設計されている。
第二に、微粒な編集によって生成された否定的なテキストと画像が組み込まれ、既存のターゲットを拒否するモデルの能力を明示的にテストする。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - Large Language Models for Anomaly Detection in Computational Workflows: from Supervised Fine-Tuning to In-Context Learning [9.601067780210006]
本稿では,大規模言語モデル(LLM)を用いて,複雑なデータパターンの学習能力を活用することにより,ワークフローの異常検出を行う。
教師付き微調整 (SFT) では, 文分類のためのラベル付きデータに基づいて事前学習したLCMを微調整し, 異常を識別する。
論文 参考訳(メタデータ) (2024-07-24T16:33:04Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Configuration Validation with Large Language Models [22.018488540410548]
大きな言語モデル(LLM)は、MLベースの構成検証の長期的制限に対処する上で、有望であることを示している。
汎用的なLCMベースの構成検証フレームワークCiriを開発した。
Ciriは有効なプロンプトエンジニアリングを採用し、有効な設定データと設定ミスデータの両方に基づいて数ショットの学習を行う。
論文 参考訳(メタデータ) (2023-10-15T00:50:27Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。