論文の概要: CLEF HIPE-2026: Evaluating Accurate and Efficient Person-Place Relation Extraction from Multilingual Historical Texts
- arxiv url: http://arxiv.org/abs/2602.17663v1
- Date: Thu, 19 Feb 2026 18:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.423078
- Title: CLEF HIPE-2026: Evaluating Accurate and Efficient Person-Place Relation Extraction from Multilingual Historical Texts
- Title(参考訳): CLEF HIPE-2026:多言語歴史的テキストからの高精度かつ効率的な人物-人物関係抽出の評価
- Authors: Juri Opitz, Corina Raclé, Emanuela Boros, Andrianos Michail, Matteo Romanello, Maud Ehrmann, Simon Clematide,
- Abstract要約: HIPE-2026は、ノイズの多い多言語歴史的テキストから人物の位置関係を抽出するCLEF評価ラボである。
HIPE-2020とHIPE-2022のキャンペーンに基づいて構築され、セマンティックな関係抽出に向けてシリーズを拡張した。
HIPE-2026は,関係抽出と大規模履歴データ処理を結びつけることにより,知識グラフ構築,歴史伝記再構築,デジタル人文科学における空間解析などにおける下流の応用を支援することを目的としている。
- 参考スコア(独自算出の注目度): 8.328489387072402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: HIPE-2026 is a CLEF evaluation lab dedicated to person-place relation extraction from noisy, multilingual historical texts. Building on the HIPE-2020 and HIPE-2022 campaigns, it extends the series toward semantic relation extraction by targeting the task of identifying person--place associations in multiple languages and time periods. Systems are asked to classify relations of two types - $at$ ("Has the person ever been at this place?") and $isAt$ ("Is the person located at this place around publication time?") - requiring reasoning over temporal and geographical cues. The lab introduces a three-fold evaluation profile that jointly assesses accuracy, computational efficiency, and domain generalization. By linking relation extraction to large-scale historical data processing, HIPE-2026 aims to support downstream applications in knowledge-graph construction, historical biography reconstruction, and spatial analysis in digital humanities.
- Abstract(参考訳): HIPE-2026は、ノイズの多い多言語歴史的テキストから人物の位置関係を抽出するCLEF評価ラボである。
HIPE-2020 と HIPE-2022 のキャンペーンに基づいて、複数の言語や期間における人物の位置関係を識別するタスクを目標として、意味関係抽出のシリーズを拡張した。
システムは2つのタイプの関係を分類するよう求められている。$at$(この場所にいた人物は?)と$isAt$(出版時ごろこの場所にいた人物は?)。
実験室では、精度、計算効率、領域一般化を共同で評価する3倍の評価プロファイルを導入している。
HIPE-2026は,関係抽出と大規模履歴データ処理を結びつけることにより,知識グラフ構築,歴史伝記再構築,デジタル人文科学における空間解析などにおける下流の応用を支援することを目的としている。
関連論文リスト
- When Life Paths Cross: Extracting Human Interactions in Time and Space from Wikipedia [7.088308741097303]
インタラクションレコードを (Person1, Person2, Time, Location) の形式でウィキペディアにマイニングする。
これらの相互作用の鍵となる要素は、しばしば異質なクラウドソーステキストに散在する。
我々は、注意機構、マルチタスク学習、特徴伝達手法を統合し、F1スコア86.51%を達成するモデルを設計する。
論文 参考訳(メタデータ) (2025-09-22T11:42:24Z) - TextMine: Data, Evaluation Framework and Ontology-guided LLM Pipeline for Humanitarian Mine Action [4.990484801014005]
HMA(Humanitarian Mine Action)は、紛争地域からの地雷の検出と除去の課題に対処する。
HMA機関が生み出す生命維持活動の知識の多くは、非構造的な報告書に埋もれている。
この問題に対処するために、最初のデータセット、評価フレームワーク、オントロジー誘導型大規模言語モデル(LLM)パイプラインであるTextMineを提案する。
論文 参考訳(メタデータ) (2025-09-18T15:55:19Z) - SLRTP2025 Sign Language Production Challenge: Methodology, Results, and Future Work [87.9341538630949]
第1回手話生産チャレンジはCVPR 2025で第3回SLRTPワークショップの一環として開催された。
コンペティションの目的は、音声言語文からスケルトンポーズのシーケンスに変換するアーキテクチャを評価することである。
本稿では,挑戦設計と入賞方法について述べる。
論文 参考訳(メタデータ) (2025-08-09T11:57:33Z) - Benchmarking Deep Search over Heterogeneous Enterprise Data [73.55304268238474]
検索強化生成(RAG)の形式を評価するための新しいベンチマークを提案する。
RAGは、多種多様な、しかし関連するソースに対して、ソースを意識したマルチホップ推論を必要とする。
製品計画、開発、サポートステージをまたいだビジネスをシミュレートする合成データパイプラインを使用して構築します。
論文 参考訳(メタデータ) (2025-06-29T08:34:59Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - Evaluating the IWSLT2023 Speech Translation Tasks: Human Annotations, Automatic Metrics, and Segmentation [50.60733773088296]
音声言語翻訳国際ワークショップ(IWSLT 2023)における共有タスクの結果を総合的に評価する。
本稿では,セグメントコンテキストによる自動回帰と直接評価に基づく効果的な評価戦略を提案する。
分析の結果,1) 提案した評価戦略は頑健であり,他の種類の人的判断とよく相関している,2) 自動測定基準は通常,必ずしも直接評価スコアとよく関連しているわけではない,3) COMET は chrF よりもわずかに強い自動測定基準である,といった結果を得た。
論文 参考訳(メタデータ) (2024-06-06T09:18:42Z) - CHisIEC: An Information Extraction Corpus for Ancient Chinese History [12.41912979618724]
我々は,中国歴史情報抽出コーパス(CHis IEC)データセットを提示する。
CHis IECは、NERおよびREタスクの開発と評価のために設計された、精巧にキュレートされたデータセットである。
データセットは4つの異なるエンティティタイプと12のリレーショナルタイプを含み、慎重にラベル付けされたデータセットとなる。
論文 参考訳(メタデータ) (2024-03-22T10:12:10Z) - Multi-EuP: The Multilingual European Parliament Dataset for Analysis of
Bias in Information Retrieval [62.82448161570428]
このデータセットは、多言語情報検索コンテキストにおける公平性を調べるために設計されている。
真正な多言語コーパスを持ち、24言語すべてに翻訳されたトピックを特徴としている。
文書に関連する豊富な人口統計情報を提供し、人口統計バイアスの研究を容易にする。
論文 参考訳(メタデータ) (2023-11-03T12:29:11Z) - L-Eval: Instituting Standardized Evaluation for Long Context Language
Models [91.05820785008527]
長い文脈言語モデル(LCLM)のより標準化された評価を行うためにL-Evalを提案する。
20のサブタスク、508の長いドキュメント、2000以上の人間ラベルのクエリ応答対を含む新しい評価スイートを構築した。
その結果、一般的なn-gramマッチングの指標は人間の判断とよく相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:59:41Z) - HumSet: Dataset of Multilingual Information Extraction and
Classification for Humanitarian Crisis Response [5.057850174013127]
HumSetは、人道的応答コミュニティの専門家によって注釈された人道的応答文書の新しい多言語データセットである。
このデータセットは3つの言語(英語、フランス語、スペイン語)で文書を提供し、2018年から2021年までのさまざまな人道的危機をカバーしている。
HumSetはまた、新規で挑戦的なエントリ抽出とマルチラベルエントリ分類タスクも提供する。
論文 参考訳(メタデータ) (2022-10-10T11:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。