論文の概要: Kastor: Fine-tuned Small Language Models for Shape-based Active Relation Extraction
- arxiv url: http://arxiv.org/abs/2511.03466v1
- Date: Wed, 05 Nov 2025 13:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.436172
- Title: Kastor: Fine-tuned Small Language Models for Shape-based Active Relation Extraction
- Title(参考訳): Kastor: 形状に基づく能動関係抽出のための微調整小言語モデル
- Authors: Ringwald Celian, Gandon Fabien, Faron Catherine, Michel Franck, Abi Akl Hanna,
- Abstract要約: RDFパターンに基づく抽出は、微調整された小言語モデルにとって魅力的なアプローチである。
Kastorは、知識ベースを完成し、精製する要求を満たすために、このアプローチを前進させるフレームワークです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: RDF pattern-based extraction is a compelling approach for fine-tuning small language models (SLMs) by focusing a relation extraction task on a specified SHACL shape. This technique enables the development of efficient models trained on limited text and RDF data. In this article, we introduce Kastor, a framework that advances this approach to meet the demands for completing and refining knowledge bases in specialized domains. Kastor reformulates the traditional validation task, shifting from single SHACL shape validation to evaluating all possible combinations of properties derived from the shape. By selecting the optimal combination for each training example, the framework significantly enhances model generalization and performance. Additionally, Kastor employs an iterative learning process to refine noisy knowledge bases, enabling the creation of robust models capable of uncovering new, relevant facts
- Abstract(参考訳): RDFパターンに基づく抽出は、特定のSHACL形状に関係抽出タスクを集中させることにより、小型言語モデル(SLM)を微調整するための魅力的なアプローチである。
この技術は、限られたテキストとRDFデータに基づいて訓練された効率的なモデルの開発を可能にする。
本稿では,専門分野における知識基盤の完成と精錬の要求を満たすために,このアプローチを推し進めるフレームワークであるKastorを紹介する。
Kastor は従来の検証タスクを再構築し、単一の SHACL 形状検証から、その形状から派生した全ての特性の組み合わせを評価する。
各トレーニング例に対して最適な組み合わせを選択することで、フレームワークはモデルの一般化と性能を大幅に向上させる。
さらに、Kastor氏は、ノイズの多い知識ベースを洗練するために反復的な学習プロセスを採用し、新しい関連する事実を発見できる堅牢なモデルの作成を可能にしている。
関連論文リスト
- SHAP-Guided Regularization in Machine Learning Models [1.0515439489916734]
本稿では,特徴量制約をモデルトレーニングに組み込んだSHAP誘導正規化フレームワークを提案する。
提案手法は, アントロピーに基づくペナルティを応用し, スパース, 集中した特徴属性の促進と, 試料間の安定性の促進を図った。
論文 参考訳(メタデータ) (2025-07-31T15:45:38Z) - Model Steering: Learning with a Reference Model Improves Generalization Bounds and Scaling Laws [52.10468229008941]
本稿では,戦略データの選択や重み付けを通じて,対象モデルのトレーニングを指導・強化するための基準として,訓練モデルを用いた新たな学習パラダイムを定式化する。
提案手法は,参照モデルを持たないトレーニングと比較して,一般化とデータの効率性を改善する理由に関する理論的知見を提供する。
これらの知見に基づいて,DRRho-CLIPと呼ばれる参照モデルを用いたコントラスト言語-画像事前学習手法を提案する。
論文 参考訳(メタデータ) (2025-05-10T16:55:03Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - FIARSE: Model-Heterogeneous Federated Learning via Importance-Aware Submodel Extraction [26.26211464623954]
Federated Importance-Aware Submodel extract (FIARSE)は、モデルパラメータの重要性に基づいて、サブモデルを動的に調整する新しいアプローチである。
既存の研究と比較して,提案手法はサブモデル抽出の理論的基礎を提供する。
提案したFIARSEの優れた性能を示すため,様々なデータセットで大規模な実験を行った。
論文 参考訳(メタデータ) (2024-07-28T04:10:11Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。