論文の概要: A Consensus-Driven Multi-LLM Pipeline for Missing-Person Investigations
- arxiv url: http://arxiv.org/abs/2603.08954v1
- Date: Mon, 09 Mar 2026 21:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.840118
- Title: A Consensus-Driven Multi-LLM Pipeline for Missing-Person Investigations
- Title(参考訳): 合意駆動型マルチLLMパイプラインによる行方不明者調査
- Authors: Joshua Castillo, Ravi Mukkamala,
- Abstract要約: Guardianは、行方不明児の調査と早期検索計画を支援するために設計されたエンドツーエンドシステムである。
本稿では,行方不明者検索操作に関連する知的情報抽出と処理にLLMを使用する多モデルシステムであるGuardian LLM Pipelineを提案する。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The first 72 hours of a missing-person investigation are critical for successful recovery. Guardian is an end-to-end system designed to support missing-child investigation and early search planning. This paper presents the Guardian LLM Pipeline, a multi-model system in which LLMs are used for intelligent information extraction and processing related to missing-person search operations. The pipeline coordinates end-to-end execution across task-specialized LLM models and invokes a consensus LLM engine that compares multiple model outputs and resolves disagreements. The pipeline is further strengthened by QLoRA-based fine-tuning, using curated datasets. The presented design aligns with prior work on weak supervision and LLM-assisted annotation, emphasizing conservative, auditable use of LLMs as structured extractors and labelers rather than unconstrained end-to-end decision makers.
- Abstract(参考訳): 行方不明者の調査の最初の72時間は、回復に不可欠である。
Guardianは、行方不明児の調査と早期検索計画を支援するために設計されたエンドツーエンドシステムである。
本稿では,行方不明者検索操作に関連する知的情報抽出と処理にLLMを使用する多モデルシステムであるGuardian LLM Pipelineを提案する。
パイプラインはタスク特化LLMモデル間のエンドツーエンド実行を調整し、複数のモデル出力を比較し、不一致を解消するコンセンサスLLMエンジンを起動する。
パイプラインは、キュレートされたデータセットを使用して、QLoRAベースの微調整によってさらに強化される。
提示された設計は、制約のないエンドツーエンドの意思決定者ではなく、構造化された抽出器とラベル器としてLLMを保守的で監査可能な使用法を強調した、弱い監督とLCM支援アノテーションに関する以前の作業と一致している。
関連論文リスト
- Memory-Based Advantage Shaping for LLM-Guided Reinforcement Learning [18.215893951726166]
スパースや遅延した報酬のある環境では、強化学習は高いサンプル複雑さを引き起こす。
この制限は、大規模言語モデル(LLM)をサブゴール発見や軌道誘導に使う動機となった。
LLMガイダンスとエージェント自身のロールアウトの成功の両方から,サブゴールとトラジェクトリを符号化したメモリグラフを構築することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2026-02-20T01:44:35Z) - Agent-UniRAG: A Trainable Open-Source LLM Agent Framework for Unified Retrieval-Augmented Generation Systems [4.683612295430957]
本稿では,最近の大規模言語モデル (LLM) エージェントの概念を用いたRAGシステムに対する新しいアプローチを提案する。
本稿では,統合検索拡張LLMシステムのためのエージェントUniRAGと呼ばれるトレーニング可能なエージェントフレームワークを提案する。
主なアイデアは、入力の複雑さに基づいてRAGタスクを段階的に解決するLLMエージェントフレームワークを設計することである。
論文 参考訳(メタデータ) (2025-05-28T16:46:31Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Adaptive Reinforcement Learning Planning: Harnessing Large Language Models for Complex Information Extraction [14.982446379660633]
大規模言語モデル(LLM)に関する既存の研究は、多段階計画により情報抽出タスクを解くことができることを示している。
複雑な抽出タスクを分解して段階的に抽出することで,LLMの性能を効果的に向上させることができる。
本稿では,LLMに基づく情報抽出のための2段階多段階手法を提案し,多段階計画を実行するためにRLフレームワークを採用する。
論文 参考訳(メタデータ) (2024-06-17T12:11:01Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。