論文の概要: Team HUMANE at AVeriTeC 2025: HerO 2 for Efficient Fact Verification
- arxiv url: http://arxiv.org/abs/2507.11004v1
- Date: Tue, 15 Jul 2025 05:42:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.996477
- Title: Team HUMANE at AVeriTeC 2025: HerO 2 for Efficient Fact Verification
- Title(参考訳): Team HUMANE at AVeriTeC 2025: HerO 2 for Efficient Fact Verification
- Authors: Yejun Yoon, Jaeyoon Jung, Seunghyun Yoon, Kunwoo Park,
- Abstract要約: HerO 2は、前年の課題から最高のパフォーマンスのオープンソースモデルの強化版である。
文書の要約と回答の改定によって証拠の質が向上する。
HerO 2はトップ3システムの中で最短のランタイムを達成しながら、リーダーボードで2位にランクインした。
- 参考スコア(独自算出の注目度): 6.792233590302494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents HerO 2, Team HUMANE's system for the AVeriTeC shared task at the FEVER-25 workshop. HerO 2 is an enhanced version of HerO, the best-performing open-source model from the previous year's challenge. It improves evidence quality through document summarization and answer reformulation, optimizes veracity prediction via post-training quantization under computational constraints, and enhances overall system performance by integrating updated language model (LM) backbones. HerO 2 ranked second on the leaderboard while achieving the shortest runtime among the top three systems, demonstrating both high efficiency and strong potential for real-world fact verification. The code is available at https://github.com/ssu-humane/HerO2.
- Abstract(参考訳): 本稿では, FEVER-25ワークショップにおいて, AVeriTeC共有タスクのためのチームHUMANEのHerO 2を提案する。
HerO 2はHerOの拡張版である。
文書の要約と回答の改定によるエビデンス品質の向上、計算制約下でのトレーニング後の量子化による精度予測の最適化、言語モデル(LM)のバックボーンの統合によるシステム全体の性能向上などを行う。
HerO 2はトップ3システムの中で最短のランタイムを達成しながら、リーダーボードで2位にランクインした。
コードはhttps://github.com/ssu-humane/HerO2で公開されている。
関連論文リスト
- Minos: A Multimodal Evaluation Model for Bidirectional Generation Between Image and Text [51.149562188883486]
我々は,人間とGPTの両方による評価データを組み合わせた大規模マルチモーダル評価データセットであるMinos-Corpusを紹介する。
このコーパスに基づいて,データ選択とバランス,混合SFTトレーニング手法を提案し,DPOをミノの開発に適用する。
論文 参考訳(メタデータ) (2025-06-03T06:17:16Z) - Self-Evolved Reward Learning for LLMs [45.6910747154447]
RLHF(Reinforcement Learning from Human Feedback)は、言語モデルと人間の嗜好を整合させる重要な手法である。
本稿では、RMが反復的に自己改善するための追加のトレーニングデータを生成する新しいアプローチである自己進化リワード学習(SER:Self-Evolved Reward Learning)を提案する。
以上の結果から,人間による注釈付きデータであっても,自己フィードバックから学習することで,RM性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-11-01T07:29:03Z) - HerO at AVeriTeC: The Herd of Open Large Language Models for Verifying Real-World Claims [6.792233590302494]
自動ファクトチェックの各ステップに,公開可能な大規模言語モデル(LLM)のみを利用するシステムを導入する。
証拠検索では、仮説的事実チェック文書を生成することにより、クエリを強化するために言語モデルが使用される。
HerOはAVeriTeCスコア0.57でリーダーボードで2位を獲得し、現実世界のクレームを検証するためのオープンLLMの可能性を示した。
論文 参考訳(メタデータ) (2024-10-16T08:49:17Z) - Iterative Data Smoothing: Mitigating Reward Overfitting and
Overoptimization in RLHF [79.98542868281471]
強化学習(Reinforcement Learning from Human Feedback, RLHF)は、言語モデルを人間中心の値と密接に整合させる手法である。
学習した報奨モデルに対して過度に最適化すると、最終的には真の目的が損なわれることが観察された。
本稿では、これらの問題を考察し、「Iterative Data Smoothing」(IDS)と呼ばれる改良された報酬学習アルゴリズムの設計に理論的知見を活用する。
論文 参考訳(メタデータ) (2024-01-29T17:43:42Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Effective Whole-body Pose Estimation with Two-stages Distillation [52.92064408970796]
全体ポーズ推定は、画像内の人体、手、顔、足のキーポイントをローカライズする。
textbfWhole-body textbfPose 推定器の2段階ポーズ textbfDistillation を提案し,その有効性と効率性について検討した。
論文 参考訳(メタデータ) (2023-07-29T03:49:28Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - ERNIE at SemEval-2020 Task 10: Learning Word Emphasis Selection by
Pre-trained Language Model [18.41476971318978]
本稿では,SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual Mediaにおいて,ERNIE Teamによって設計されたシステムについて述べる。
教師なし事前学習モデルを活用し、これらのモデルをタスクで微調整します。
我々の最良のモデルは0.823の最高スコアを達成し、あらゆる種類の指標で第1位となる。
論文 参考訳(メタデータ) (2020-09-08T12:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。