論文の概要: Trustworthy AI in the Agentic Lakehouse: from Concurrency to Governance
- arxiv url: http://arxiv.org/abs/2511.16402v1
- Date: Thu, 20 Nov 2025 14:21:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.669888
- Title: Trustworthy AI in the Agentic Lakehouse: from Concurrency to Governance
- Title(参考訳): エージェントレイクハウスにおける信頼できるAI - 並行性からガバナンスまで
- Authors: Jacopo Tagliabue, Federico Bianchi, Ciro Greco,
- Abstract要約: 信頼できるエージェントへの道は、まずインフラストラクチャの問題を解決することから始まります。
我々は,データを再実装し,レイクハウス内での分離を計算するエージェントファースト設計であるBauplanを提案する。
Bauplanで自己修復パイプラインのリファレンス実装を共有することで、結論付けます。
- 参考スコア(独自算出の注目度): 5.3013727160110085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Even as AI capabilities improve, most enterprises do not consider agents trustworthy enough to work on production data. In this paper, we argue that the path to trustworthy agentic workflows begins with solving the infrastructure problem first: traditional lakehouses are not suited for agent access patterns, but if we design one around transactions, governance follows. In particular, we draw an operational analogy to MVCC in databases and show why a direct transplant fails in a decoupled, multi-language setting. We then propose an agent-first design, Bauplan, that reimplements data and compute isolation in the lakehouse. We conclude by sharing a reference implementation of a self-healing pipeline in Bauplan, which seamlessly couples agent reasoning with all the desired guarantees for correctness and trust.
- Abstract(参考訳): AI能力が向上しているにもかかわらず、ほとんどの企業は、プロダクションデータに取り組むのに十分な信頼性を持つエージェントを考慮していない。
従来のレイクハウスはエージェントアクセスパターンには適していないが、トランザクションを中心に設計すれば、ガバナンスは次のようになる。
特に、データベースにおけるMVCの運用上の類似点を描き、分離された多言語環境で直接移植が失敗する理由を示す。
次に、データを再実装し、レイクハウスで分離を計算するエージェントファースト設計であるBauplanを提案する。
バプランで自己修復パイプラインのリファレンス実装を共有することで、エージェントの推論と、正確性と信頼に関するすべての望ましい保証をシームレスに結合する。
関連論文リスト
- What's the next frontier for Data-centric AI? Data Savvy Agents [71.76058707995398]
我々は、エージェントシステムの設計において、データに精通する能力が最優先すべきであると主張している。
本稿では,このビジョンを実現するための4つの重要な機能を提案する。プロアクティブデータ取得,ソフシフィケートデータ処理,インタラクティブテストデータ合成,連続的適応。
論文 参考訳(メタデータ) (2025-11-02T17:09:29Z) - Alita-G: Self-Evolving Generative Agent for Agent Generation [54.49365835457433]
汎用エージェントをドメインエキスパートに変換するフレームワークであるALITA-Gを提案する。
このフレームワークでは、ジェネラリストエージェントが対象ドメインタスクのキュレートされたスイートを実行する。
計算コストを削減しながら、大きな利益を得ることができます。
論文 参考訳(メタデータ) (2025-10-27T17:59:14Z) - The Gatekeeper Knows Enough [0.0]
Gatekeeper Protocolは、エージェント・システム間のインタラクションを管理するドメインに依存しないフレームワークである。
提案手法は,エージェントの信頼性を著しく向上し,トークン消費を最小化することで計算効率を向上し,複雑なシステムとのスケーラブルな相互作用を可能にする。
論文 参考訳(メタデータ) (2025-10-16T17:00:42Z) - Safe, Untrusted, "Proof-Carrying" AI Agents: toward the agentic lakehouse [3.6729718095918393]
APIファーストでプログラム可能なレイクハウスは、安全な設計のエージェントレイクハウスのための適切な抽象化を提供する。
本稿では, エージェントがデータパイプラインを修復する上で, 証明キャリングコードにインスパイアされた正当性チェックを提案する。
論文 参考訳(メタデータ) (2025-10-10T17:18:36Z) - From Cloud-Native to Trust-Native: A Protocol for Verifiable Multi-Agent Systems [7.002091295810318]
エージェントインフラストラクチャに直接構造保証を組み込むプロトコルであるTrustTrackを導入する。
TrustTrackは、知的エージェントが組織や司法機関をまたいでどのように機能するかを再設定する。
Cloud -> AI -> Agent -> Trust transitionは、自律システムのための次のアーキテクチャレイヤである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-07-25T04:38:38Z) - A Pre-training Framework for Relational Data with Information-theoretic Principles [57.93973948947743]
本稿では,リレーショナルグラフ上の集合に基づくアグリゲーションを通じて,監視信号を構成する新しい事前学習フレームワークであるTask Vector Estimation (TVE)を紹介する。
TVEは従来のトレーニング前のベースラインを一貫して上回っている。
本研究は,関係データベース上での予測モデルの設計原則として,タスクの不均一性と時間構造を符号化する事前学習目的を提唱する。
論文 参考訳(メタデータ) (2025-07-14T00:17:21Z) - Agent KB: Leveraging Cross-Domain Experience for Agentic Problem Solving [62.71545696485824]
我々は,異種エージェントフレームワーク間のシームレスな体験共有を可能にするユニバーサルメモリ基盤であるAgent KBを紹介した。
Agent KBはトラジェクトリを構造化知識ベースに集約し、軽量APIを提供する。
我々は,GAIA,Humanity's Last Exam,GPQA,SWE-benchなどの主要フレームワークにまたがるエージェントを検証した。
論文 参考訳(メタデータ) (2025-07-08T17:59:22Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Using Petri Nets as an Integrated Constraint Mechanism for Reinforcement Learning Tasks [3.105112058253643]
アルゴリズムへの信頼の欠如は、現実世界のドメインで制御するために強化学習(RL)エージェントを使用する場合の課題である。
本稿では,典型的なRLアプローチに対して3つの利点を持つペトリネット(PN)を用いたアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-05T13:04:06Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - A Distributed Trust Framework for Privacy-Preserving Machine Learning [4.282091426377838]
本稿では,分散エージェント間のピアツーピア信頼を促進するために使用される分散インフラストラクチャについて概説する。
Hyperledger Aries、分散識別子(DID)、検証クレデンシャル(VC)を使用した概念実証について詳述する。
論文 参考訳(メタデータ) (2020-06-03T18:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。