論文の概要: Gender-Neutral Rewriting in Italian: Models, Approaches, and Trade-offs
- arxiv url: http://arxiv.org/abs/2509.13480v1
- Date: Tue, 16 Sep 2025 19:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.626293
- Title: Gender-Neutral Rewriting in Italian: Models, Approaches, and Trade-offs
- Title(参考訳): イタリア語におけるジェンダーニュートラル書き換え--モデル,アプローチ,トレードオフ
- Authors: Andrea Piergentili, Beatrice Savoldi, Matteo Negri, Luisa Bentivogli,
- Abstract要約: ジェンダーニュートラルリライト(GNR)は、意味を保ちながら不必要な性別の仕様をなくすためにテキストを書き換えることを目的としている。
この研究は、入力に対する中立性と意味的忠実性の両方を測定する2次元フレームワークを導入している。
- 参考スコア(独自算出の注目度): 18.575966980362054
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gender-neutral rewriting (GNR) aims to reformulate text to eliminate unnecessary gender specifications while preserving meaning, a particularly challenging task in grammatical-gender languages like Italian. In this work, we conduct the first systematic evaluation of state-of-the-art large language models (LLMs) for Italian GNR, introducing a two-dimensional framework that measures both neutrality and semantic fidelity to the input. We compare few-shot prompting across multiple LLMs, fine-tune selected models, and apply targeted cleaning to boost task relevance. Our findings show that open-weight LLMs outperform the only existing model dedicated to GNR in Italian, whereas our fine-tuned models match or exceed the best open-weight LLM's performance at a fraction of its size. Finally, we discuss the trade-off between optimizing the training data for neutrality and meaning preservation.
- Abstract(参考訳): GNR(Gender-neutral rewriting)は、イタリア語のような文法的ジェンダー言語において特に困難な課題である、意味を保ちながら不必要な性別の仕様をなくすために、テキストを改訂することを目的としている。
本研究は,イタリアのGNRに対して,入力に対する中立性と意味的忠実性の両方を計測する2次元フレームワークを導入することにより,最先端の大規模言語モデル(LLM)を初めて体系的に評価するものである。
複数のLDMをまたいだ数ショットプロンプトと微調整選択モデルを比較し,タスク関連性を高めるためにターゲットクリーニングを適用した。
以上の結果から, オープンウェイトLLMはGNR専用モデルとしてイタリアで唯一の性能を誇っているのに対し, ファインチューニングモデルでは, 最高のオープンウェイトLLMの性能をわずかに上回っていることがわかった。
最後に、中立性のためのトレーニングデータの最適化と意味保存のトレードオフについて議論する。
関連論文リスト
- An LLM-as-a-judge Approach for Scalable Gender-Neutral Translation Evaluation [14.799630514233238]
ジェンダーニュートラル翻訳(GNT)は、ソーステキストがそれらの参照者の性別に関する明示的な手がかりを欠いている場合に、人間の参照者の性別を表現することを避けることを目的としている。
大規模言語モデル(LLM)をGNTの評価器として用いることを検討する。
論文 参考訳(メタデータ) (2025-04-16T10:14:27Z) - VladVA: Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - ABC Align: Large Language Model Alignment for Safety & Accuracy [0.0]
大規模言語モデル(LLM)のための新しいアライメント手法ABC Alignを提案する。
合成データ生成、選好最適化、ポストトレーニングモデル量子化における最近のブレークスルーの上に構築された一連のデータとメソッドを組み合わせる。
我々の統一的なアプローチは、標準ベンチマークに対して測定されたように、バイアスを軽減し、推論能力を保ちながら精度を向上させる。
論文 参考訳(メタデータ) (2024-08-01T06:06:25Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。