論文の概要: ZTab: Domain-based Zero-shot Annotation for Table Columns
- arxiv url: http://arxiv.org/abs/2603.11436v1
- Date: Thu, 12 Mar 2026 02:02:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.80854
- Title: ZTab: Domain-based Zero-shot Annotation for Table Columns
- Title(参考訳): ZTab:テーブルカラムのドメインベースのゼロショットアノテーション
- Authors: Ehsan Hoseinzade, Ke Wang,
- Abstract要約: 本研究では,関係表中の意味列型を自動的に検出することの課題に対処する。
ZTabは、パフォーマンスとゼロショット要件の両方に対処するドメインベースのゼロショットフレームワークである。
- 参考スコア(独自算出の注目度): 3.2939022690604087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study addresses the challenge of automatically detecting semantic column types in relational tables, a key task in many real-world applications. Zero-shot modeling eliminates the need for user-provided labeled training data, making it ideal for scenarios where data collection is costly or restricted due to privacy concerns. However, existing zero-shot models suffer from poor performance when the number of semantic column types is large, limited understanding of tabular structure, and privacy risks arising from dependence on high-performance closed-source LLMs. We introduce ZTab, a domain-based zero-shot framework that addresses both performance and zero-shot requirements. Given a domain configuration consisting of a set of predefined semantic types and sample table schemas, ZTab generates pseudo-tables for the sample schemas and fine-tunes an annotation LLM on them. ZTab is domain-based zero-shot in that it does not depend on user-specific labeled training data; therefore, no retraining is needed for a test table from a similar domain. We describe three cases of domain-based zero-shot. The domain configuration of ZTab provides a trade-off between the extent of zero-shot and annotation performance: a "universal domain" that contains all semantic types approaches "pure" zero-shot, while a "specialized domain" that contains semantic types for a specific application enables better zero-shot performance within that domain. Source code and datasets are available at https://github.com/hoseinzadeehsan/ZTab
- Abstract(参考訳): 本研究では,多くの実世界のアプリケーションにおいて重要な課題であるリレーショナルテーブルにおける意味列型の自動検出の課題に対処する。
ゼロショットモデリングは、ユーザが提供するラベル付きトレーニングデータの必要性を排除し、プライバシの懸念によりデータ収集がコストがかかるか制限されているシナリオに理想的だ。
しかし、既存のゼロショットモデルは、セマンティックカラムのタイプが多ければ性能が悪く、タブ構造が限定的であり、高性能なクローズドソースLCMへの依存に起因するプライバシーリスクがある。
ZTabは、パフォーマンスとゼロショット要件の両方に対処するドメインベースのゼロショットフレームワークである。
事前定義されたセマンティックタイプとサンプルテーブルスキーマからなるドメイン構成が与えられた場合、ZTabはサンプルスキーマの擬似テーブルを生成し、それらにアノテーションLLMを微調整する。
ZTabはドメインベースのゼロショットであり、ユーザ固有のラベル付きトレーニングデータに依存しないので、同様のドメインからテストテーブルを再トレーニングする必要はない。
ドメインベースゼロショットの3例について述べる。
ZTabのドメイン構成は、ゼロショットとアノテーションのパフォーマンスの範囲のトレードオフを提供する。すべてのセマンティックタイプを含む"ユニバーサルドメイン"は、ゼロショットに近づき、特定のアプリケーションに対するセマンティックタイプを含む"特殊化ドメイン"は、そのドメイン内でより良いゼロショットパフォーマンスを実現する。
ソースコードとデータセットはhttps://github.com/hoseinzadeehsan/ZTabで入手できる。
関連論文リスト
- Secu-Table: a Comprehensive security table dataset for evaluating semantic table interpretation systems [4.007351600492542]
Secu-Tableは1500以上のテーブルで構成され、Common Vulnerabilities and Exposures(データセット)とCommon Weaknession(CWE)データソースから抽出されたセキュリティデータを使用して15k以上のエンティティが構築されている。
このデータセットは、Tabular to Knowledge Graph Matchingに関するSemTabチャレンジの文脈で、研究コミュニティが利用できる。
論文 参考訳(メタデータ) (2025-11-09T09:36:01Z) - Heterogeneous LLM Methods for Ontology Learning (Few-Shot Prompting, Ensemble Typing, and Attention-Based Taxonomies) [46.54026795022501]
LLMs4OL 2025チャレンジのタスクA,B,Cに対処する包括的システムを提案する。
提案手法は、検索強化プロンプト、ゼロショット分類、アテンションに基づくグラフモデリングを組み合わせたものである。
これらのモジュラーでタスク固有のソリューションによって、公式のリーダーボードで上位の成果を得られるようになりました。
論文 参考訳(メタデータ) (2025-08-26T20:50:16Z) - X-Shot: A Unified System to Handle Frequent, Few-shot and Zero-shot
Learning Simultaneously in Classification [51.07629536521054]
X-shot、freq-shot、 few-shot、zero-shotラベルが予め定義された制限なしに共起する現実世界のコンテキストを反映する。
Xショットは、オープンドメインの一般化と、さまざまなラベルシナリオを管理するのに十分なシステムを考案することに焦点を当てている。
私たちの知る限りでは、これはX が可変のままである X-shot Learning に対処する最初の作業である。
論文 参考訳(メタデータ) (2024-03-06T17:13:24Z) - Revisiting Few-Shot Object Detection with Vision-Language Models [49.79495118650838]
我々は、最近の基礎視覚言語モデル(VLM)の文脈で、少数ショットオブジェクト検出(FSOD)のタスクを再考する。
我々は,任意の外部データ上で事前学習された検出器を評価する新しいベンチマークプロトコルであるFoundational FSODを提案する。
CVPR 2024 Foundational FSOD コンペティションについて論じ,コミュニティからの洞察を共有した。
論文 参考訳(メタデータ) (2023-12-22T07:42:00Z) - ZeroReg: Zero-Shot Point Cloud Registration with Foundation Models [77.84408427496025]
最先端の3Dポイントクラウド登録方法は、トレーニングのためにラベル付き3Dデータセットに依存している。
我々は2次元基礎モデルを用いて3次元対応を予測するゼロショット登録手法であるZeroRegを紹介する。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - STUNT: Few-shot Tabular Learning with Self-generated Tasks from
Unlabeled Tables [64.0903766169603]
我々は,Unlabeled Tables (STUNT) からの自己生成タスクを作成した,数発のセミ教師付き学習のためのフレームワークを提案する。
私たちのキーとなるアイデアは、ランダムに選択された列をターゲットラベルとして扱うことで、多様なショットタスクを自己生成することです。
次に、メタラーニング手法を用いて、構築されたタスクで一般化可能な知識を学習する。
論文 参考訳(メタデータ) (2023-03-02T02:37:54Z) - Leveraging Table Content for Zero-shot Text-to-SQL with Meta-Learning [25.69875174742935]
単一テーブルのテキスト・トゥ・ワンは、自然言語の質問を単一のテーブルに従ってクエリに変換することを目的としている。
我々は、追加のマニュアルアノテーションに依存しないゼロショットテキスト・ツー・ワンタスクに対して、新しいアプローチを提案する。
パブリックなオープンドメインのテキスト・ツー・ワン・データセットとドメイン固有のデータセットEについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-12T01:01:28Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Linguistically-Enriched and Context-Aware Zero-shot Slot Filling [6.06746295810681]
スロット充填は、現代のタスク指向ダイアログシステムの最も重要な課題の1つです。
新たなドメイン(すなわち、トレーニングの見当たらない)がデプロイ後に出現する可能性がある。
モデルがシームレスに適応し、見えないドメインと見えないドメインの両方からスロットを埋めることは必須である。
論文 参考訳(メタデータ) (2021-01-16T20:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。