論文の概要: A Simple Baseline for Beam Search Reranking
- arxiv url: http://arxiv.org/abs/2212.08926v1
- Date: Sat, 17 Dec 2022 18:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 14:14:56.848358
- Title: A Simple Baseline for Beam Search Reranking
- Title(参考訳): ビーム探索再ランキングのための簡易ベースライン
- Authors: Lior Vassertail, Omer Levy
- Abstract要約: 本稿では,翻訳候補のBLEUスコアを,追加データやパラメータを導入することなく予測するための簡単な手法について検討する。
当社のアプローチは, 外部要因から分離したクリーンベースラインとして, この分野の今後の研究に利用することができる。
- 参考スコア(独自算出の注目度): 42.416019490068614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reranking methods in machine translation aim to close the gap between common
evaluation metrics (e.g. BLEU) and maximum likelihood learning and decoding
algorithms. Prior works address this challenge by training models to rerank
beam search candidates according to their predicted BLEU scores, building upon
large models pretrained on massive monolingual corpora -- a privilege that was
never made available to the baseline translation model. In this work, we
examine a simple approach for training rerankers to predict translation
candidates' BLEU scores without introducing additional data or parameters. Our
approach can be used as a clean baseline, decoupled from external factors, for
future research in this area.
- Abstract(参考訳): 機械翻訳における格付け法は、共通評価指標(例えばBLEU)と最大可能性学習と復号アルゴリズムの間のギャップを埋めることを目的としている。
以前の作業では、予測されたBLEUスコアに従ってビーム検索候補をリランクするモデルをトレーニングし、巨大なモノリンガルコーパスで事前トレーニングされた大きなモデル上に構築していた。
本研究では,翻訳候補のBLEUスコアを,追加データやパラメータを導入することなく予測するための簡単な手法を検討する。
我々のアプローチは、この領域における今後の研究のために、外部要因から切り離されたクリーンなベースラインとして使用できる。
関連論文リスト
- Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
本研究では,大規模言語モデル (LLM) を用いて予測モデルの事前分布を推定する手法を提案する。
本研究では,LLMがパラメータ分布を真に生成するかどうかを評価するとともに,文脈内学習と事前推論のためのモデル選択戦略を提案する。
その結果,LLMによる事前パラメータ分布は,低データ設定における非形式的先行よりも予測誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method [108.56493934296687]
本研究では,乱数から発散する概念に触発された偏差に基づくキャリブレーション手法を導入し,プリトレーニングデータ検出のためのトークン確率のキャリブレーションを行う。
我々は,中国語テキスト上でのLLMの検出手法の性能を評価するために,中国語のベンチマークであるPatentMIAを開発した。
論文 参考訳(メタデータ) (2024-09-23T07:55:35Z) - Is Crowdsourcing Breaking Your Bank? Cost-Effective Fine-Tuning of
Pre-trained Language Models with Proximal Policy Optimization [18.75866961339424]
ChatGPTは、人間のフィードバックによる強化学習の可能性を強調している。
労働コストを削減するために,自己監督型テキストランキング手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T12:24:07Z) - Unsupervised Calibration through Prior Adaptation for Text
Classification using Large Language Models [37.39843935632105]
ラベル付きサンプルを必要とせずにテキスト分類タスクを実行するために,先行クラス分布に適応する手法を提案する。
その結果,これらの手法は,プロンプト内の訓練ショット数が異なる場合,適応しないモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-13T12:11:36Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - Fine-tuning BERT for Low-Resource Natural Language Understanding via
Active Learning [30.5853328612593]
本研究では,事前学習した Transformer ベースの言語モデル BERT の微調整手法について検討する。
実験結果から,モデルの知識獲得度を最大化することで,モデル性能の優位性を示す。
我々は、微調整中の言語モデルの凍結層の利点を分析し、トレーニング可能なパラメータの数を減らす。
論文 参考訳(メタデータ) (2020-12-04T08:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。