論文の概要: AgentODRL: A Large Language Model-based Multi-agent System for ODRL Generation
- arxiv url: http://arxiv.org/abs/2512.00602v1
- Date: Sat, 29 Nov 2025 19:19:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.319397
- Title: AgentODRL: A Large Language Model-based Multi-agent System for ODRL Generation
- Title(参考訳): AgentODRL:ODRL生成のための大規模言語モデルに基づくマルチエージェントシステム
- Authors: Wanle Zhong, Keman Huang, Xiaoyong Du,
- Abstract要約: AgentODRLはOrchestrator-Workersアーキテクチャに基づくマルチエージェントシステムである。
我々は、ODRLポリシー生成のためのジェネレータ、複雑なユースケースを分解するためのデコンポザ、ネストされた論理的関係を単純化するリライターを含む、特別なWorkersを紹介する。
検証器をベースとした構文戦略とLoRAモデルを用いた意味的リフレクション機構を組み込むことで,ODRLジェネレータを強化した。
- 参考スコア(独自算出の注目度): 4.648904872894796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Open Digital Rights Language (ODRL) is a pivotal standard for automating data rights management. However, the inherent logical complexity of authorization policies, combined with the scarcity of high-quality "Natural Language-to-ODRL" training datasets, impedes the ability of current methods to efficiently and accurately translate complex rules from natural language into the ODRL format. To address this challenge, this research leverages the potent comprehension and generation capabilities of Large Language Models (LLMs) to achieve both automation and high fidelity in this translation process. We introduce AgentODRL, a multi-agent system based on an Orchestrator-Workers architecture. The architecture consists of specialized Workers, including a Generator for ODRL policy creation, a Decomposer for breaking down complex use cases, and a Rewriter for simplifying nested logical relationships. The Orchestrator agent dynamically coordinates these Workers, assembling an optimal pathway based on the complexity of the input use case. Specifically, we enhance the ODRL Generator by incorporating a validator-based syntax strategy and a semantic reflection mechanism powered by a LoRA-finetuned model, significantly elevating the quality of the generated policies. Extensive experiments were conducted on a newly constructed dataset comprising 770 use cases of varying complexity, all situated within the context of data spaces. The results, evaluated using ODRL syntax and semantic scores, demonstrate that our proposed Orchestrator-Workers system, enhanced with these strategies, achieves superior performance on the ODRL generation task.
- Abstract(参考訳): Open Digital Rights Language (ODRL)は、データ権利管理を自動化するための重要な標準である。
しかし、認証ポリシーの固有の論理的複雑さは、高品質な"自然言語からODRL"トレーニングデータセットの不足と相まって、複雑なルールを自然言語からODRLフォーマットに効率的に正確に翻訳する現在の手法の能力を阻害している。
この課題に対処するために,本稿では,Large Language Models (LLMs) の強力な理解と生成能力を活用して,この翻訳プロセスにおける自動化と高忠実性を実現する。
本稿では,Orchestrator-Workersアーキテクチャに基づくマルチエージェントシステムであるAgentODRLを紹介する。
アーキテクチャは、ODRLポリシー生成用のジェネレータ、複雑なユースケースを分解するためのデコンポザ、ネストされた論理的関係を単純化するリライターを含む、特別なWorkersで構成されている。
OrchestratorエージェントはこれらのWorkersを動的に調整し、入力ユースケースの複雑さに基づいて最適な経路を組み立てます。
具体的には、バリデータに基づく構文戦略とLoRAファインタレートモデルを利用した意味的リフレクション機構を組み込むことにより、ODRLジェネレータを強化し、生成したポリシーの品質を大幅に向上させる。
拡張実験は、データ空間のコンテキスト内に位置する複雑さの異なる770のユースケースからなる、新たに構築されたデータセット上で実施された。
ODRLの構文とセマンティックスコアを用いて評価した結果,提案するOrchestrator-Workersシステムは,これらの戦略により強化され,ODRL生成タスクにおいて優れた性能を発揮することが示された。
関連論文リスト
- PEFA-AI: Advancing Open-source LLMs for RTL generation using Progressive Error Feedback Agentic-AI [5.455262834289454]
本稿では,人的介入を伴わずにレジスタ転送レベル(RTL)生成のタスクを協調的に完了する複数のエージェントからなるエージェントフローを提案する。
提案するフローの重要な特徴は,自己修正機構であるエージェントのプログレッシブエラーフィードバックシステム(PEFA)である。
コード生成に対するこの適応的アプローチを検証するために、ベンチマークは2つのオープンソース自然言語-RTLデータセットを使用して実行される。
論文 参考訳(メタデータ) (2025-11-06T00:19:47Z) - FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - SignalLLM: A General-Purpose LLM Agent Framework for Automated Signal Processing [36.22027224597969]
大規模言語モデル(LLM)は、強力な推論能力、幅広い汎用知識、文脈内学習、モーダル間伝達能力を提供する。
本稿では,SPタスクのための汎用LLMベースのエージェントフレームワークであるSignalLLMを紹介する。
コミュニケーションとセンシングにおける5つの代表的なタスクを通して,SignalLLMの汎用性と有効性を示す。
論文 参考訳(メタデータ) (2025-09-21T18:54:54Z) - ORAN-GUIDE: RAG-Driven Prompt Learning for LLM-Augmented Reinforcement Learning in O-RAN Network Slicing [5.62872273155603]
マルチエージェント(MARL)をタスク関連で意味的にリッチな状態表現で拡張するデュアルLLMフレームワークである textitORAN-GUIDE を提案する。
その結果、ORAN-GUIDEは標準MARLおよび単一LLMベースライン上でのサンプル効率、ポリシー収束、性能一般化を改善することが示された。
論文 参考訳(メタデータ) (2025-05-31T14:21:19Z) - A Collaborative Multi-Agent Approach to Retrieval-Augmented Generation Across Diverse Data [0.0]
Retrieval-Augmented Generation (RAG)はLarge Language Models (LLM)を強化する
従来のRAGシステムでは、クエリ生成、データ検索、レスポンス合成に単一エージェントアーキテクチャを使用するのが一般的である。
本稿では,これらの制約に対処するマルチエージェントRAGシステムを提案する。
論文 参考訳(メタデータ) (2024-12-08T07:18:19Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。