論文の概要: Database Normalization via Dual-LLM Self-Refinement
- arxiv url: http://arxiv.org/abs/2508.17693v1
- Date: Mon, 25 Aug 2025 06:02:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.653998
- Title: Database Normalization via Dual-LLM Self-Refinement
- Title(参考訳): Dual-LLMセルフリファインメントによるデータベース正規化
- Authors: Eunjae Jo, Nakyung Lee, Gyuyeong Kim,
- Abstract要約: Miffieは、人間の努力なしに自動データ正規化を可能にするデータベース正規化フレームワークである。
Miffieの中核は、正規化されたスキーマ生成と検証のための最高のパフォーマンスモデルを組み合わせたデュアルモデル自己精製アーキテクチャである。
実験結果から、Miffieは複雑なデータベーススキーマを高い精度で正規化できることがわかった。
- 参考スコア(独自算出の注目度): 2.5804932812837342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Database normalization is crucial to preserving data integrity. However, it is time-consuming and error-prone, as it is typically performed manually by data engineers. To this end, we present Miffie, a database normalization framework that leverages the capability of large language models. Miffie enables automated data normalization without human effort while preserving high accuracy. The core of Miffie is a dual-model self-refinement architecture that combines the best-performing models for normalized schema generation and verification, respectively. The generation module eliminates anomalies based on the feedback of the verification module until the output schema satisfies the requirement for normalization. We also carefully design task-specific zero-shot prompts to guide the models for achieving both high accuracy and cost efficiency. Experimental results show that Miffie can normalize complex database schemas while maintaining high accuracy.
- Abstract(参考訳): データの整合性を維持するためには、データベースの正規化が不可欠だ。
しかし、一般的にはデータエンジニアが手動で実行するため、時間とエラーが発生しやすい。
この目的のために,大規模言語モデルの能力を活用したデータベース正規化フレームワークであるMiffieを紹介する。
Miffieは人間の努力なしにデータの正規化を自動化し、高精度な保存を可能にする。
Miffieの中核は、正規化されたスキーマ生成と検証のための最高のパフォーマンスモデルを組み合わせたデュアルモデル自己精製アーキテクチャである。
生成モジュールは、出力スキーマが正規化の要求を満たすまで、検証モジュールのフィードバックに基づいて異常を除去する。
また,タスク固有のゼロショットプロンプトを慎重に設計し,高精度かつコスト効率の両立を図った。
実験結果から、Miffieは複雑なデータベーススキーマを高い精度で正規化できることがわかった。
関連論文リスト
- Post-Training Language Models for Continual Relation Extraction [1.366732114025733]
本研究では,事前学習言語モデル(PLM),特に大規模言語モデル(LLM)を知識グラフに適用することを検討した。
我々は,TACREDおよびFewRelデータセット上で,デコーダのみのモデル(Mistral-7BとLlama2-7B)とエンコーダ-デコーダモデル(Flan-T5 Base)を評価する。
論文 参考訳(メタデータ) (2025-04-07T16:01:22Z) - SchemaAgent: A Multi-Agents Framework for Generating Relational Database Schema [35.57815867567431]
既存の取り組みは主に、カスタマイズされたルールや従来のディープラーニングモデルに基づいており、しばしばリレーショナルスキーマを生成する。
高品質データベーススキーマの自動生成のための統一LLMベースのマルチエージェントフレームワークを提案する。
我々は、様々な段階にわたる問題の正当性を特定するために、リフレクションとインスペクションのための専用の役割と、革新的なエラー検出と修正機構を組み込んだ。
論文 参考訳(メタデータ) (2025-03-31T09:39:19Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Multi-level Memory-augmented Appearance-Motion Correspondence Framework
for Video Anomaly Detection [1.9511777443446219]
マルチレベルメモリ拡張外見対応フレームワークを提案する。
外観と動きの潜在的対応は、外見と動きのセマンティックスアライメントとセマンティックス代替トレーニングによって探索される。
我々のフレームワークは最先端の手法より優れており、UCSD Ped2、CUHK Avenue、ShanghaiTechのデータセットで99.6%、93.8%、76.3%のAUCを達成した。
論文 参考訳(メタデータ) (2023-03-09T08:43:06Z) - Generalizable Person Re-Identification via Self-Supervised Batch Norm
Test-Time Adaption [63.7424680360004]
Batch Norm Test-time Adaption (BNTA)は、BNパラメータを適応的に更新するための自己教師型戦略を適用する、新しいre-idフレームワークである。
BNTAは、推論前にラベル付けされていないターゲットデータ内のドメイン認識情報を探索し、BNによって正規化された特徴分布を変調してターゲットドメインに適応させる。
論文 参考訳(メタデータ) (2022-03-01T18:46:32Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Identifying Statistical Bias in Dataset Replication [102.92137353938388]
モデルが(11-14%) の精度低下を示すImageNetデータセットの再現について検討した。
同定された統計バイアスを補正した後、推定3.6%のpm 1.5%の当初の11.7%のpm 1.0%の精度低下しか記録されていない。
論文 参考訳(メタデータ) (2020-05-19T17:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。