論文の概要: compar:IA: The French Government's LLM arena to collect French-language human prompts and preference data
- arxiv url: http://arxiv.org/abs/2602.06669v1
- Date: Fri, 06 Feb 2026 12:53:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.400174
- Title: compar:IA: The French Government's LLM arena to collect French-language human prompts and preference data
- Title(参考訳): 要約:IA:フランス政府のLLMアリーナは、フランス語の人間のプロンプトと好みのデータを収集する
- Authors: Lucie Termignon, Simonas Zilinskas, Hadrien Pélissier, Aurélien Barrot, Nicolas Chesnais, Elie Gavoty,
- Abstract要約: IAは、フランス政府内で開発されたオープンソースのデジタルパブリックサービスである。
主にフランス語話者の聴衆から大規模な人間の嗜好データを収集する。
2026-02-07年時点で、IAは60,000以上のフリーフォームプロンプトと25万の選好票を集めており、その約89%がフランス語である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) often show reduced performance, cultural alignment, and safety robustness in non-English languages, partly because English dominates both pre-training data and human preference alignment datasets. Training methods like Reinforcement Learning from Human Feedback (RLHF) and Direct Preference Optimization (DPO) require human preference data, which remains scarce and largely non-public for many languages beyond English. To address this gap, we introduce compar:IA, an open-source digital public service developed inside the French government and designed to collect large-scale human preference data from a predominantly French-speaking general audience. The platform uses a blind pairwise comparison interface to capture unconstrained, real-world prompts and user judgments across a diverse set of language models, while maintaining low participation friction and privacy-preserving automated filtering. As of 2026-02-07, compar:IA has collected over 600,000 free-form prompts and 250,000 preference votes, with approximately 89% of the data in French. We release three complementary datasets -- conversations, votes, and reactions -- under open licenses, and present initial analyses, including a French-language model leaderboard and user interaction patterns. Beyond the French context, compar:IA is evolving toward an international digital public good, offering reusable infrastructure for multilingual model training, evaluation, and the study of human-AI interaction.
- Abstract(参考訳): 大規模言語モデル(LLM)は、英語が事前学習データと人間の嗜好アライメントデータセットの両方を支配しているため、非英語言語の性能、文化的アライメント、安全性の堅牢性を低下させることが多い。
Reinforcement Learning from Human Feedback (RLHF) や Direct Preference Optimization (DPO) のようなトレーニング手法では、人間の好みのデータが必要であり、英語以外の多くの言語では、ほとんど公開されていない。
このギャップに対処するために、フランス政府内で開発されたオープンソースのデジタルパブリックサービスであるComppar:IAを紹介します。
このプラットフォームでは、視覚的なペアワイズ比較インターフェースを使用して、制約のない現実世界のプロンプトとユーザ判断を、さまざまな言語モデルにわたってキャプチャし、低い参加摩擦とプライバシー保護による自動フィルタリングを維持している。
2026-02-07年時点で、IAは60,000以上のフリーフォームプロンプトと25万の選好票を集めており、その約89%がフランス語である。
オープンライセンスの下で,3つの補完的なデータセット – 会話,投票,反応 – がリリースされ,フランス語モデルリーダボードやユーザインタラクションパターンなど,最初の分析結果が提示されます。
コンパル:IAは、フランス語の文脈を超えて、多言語モデルのトレーニング、評価、人間とAIの相互作用の研究のための再利用可能なインフラを提供し、国際デジタル公共財に向けて進化している。
関連論文リスト
- CroissantLLM: A Truly Bilingual French-English Language Model [42.03897426049679]
英語とフランス語のトークンセットを事前訓練した1.3B言語モデルであるCroissantLLMを紹介する。
我々は、英語とフランス語の事前学習データ比率1:1で、本質的なバイリンガルモデルを訓練するアプローチを開拓した。
英語以外のパフォーマンスを評価するため、新しいベンチマークである FrenchBench を作成します。
論文 参考訳(メタデータ) (2024-02-01T17:17:55Z) - Sample Efficient Preference Alignment in LLMs via Active Exploration [63.84454768573154]
良い政策を最も効率的に特定するために、人間のフィードバックを得るコンテキストをしばしば選択できるという事実を活用します。
本稿では,データを効率的に選択する能動的探索アルゴリズムを提案する。
提案手法は,複数の言語モデルと4つの実世界のデータセットに対する人間の嗜好の限られたサンプルを用いて,ベースラインよりも優れる。
論文 参考訳(メタデータ) (2023-12-01T00:54:02Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Language Agnostic Multilingual Information Retrieval with Contrastive
Learning [59.26316111760971]
本稿では,多言語情報検索システムの学習方法を提案する。
並列コーパスと非並列コーパスを利用して、事前訓練された多言語言語モデルを改善する。
我々のモデルは少数のパラレル文でもうまく機能する。
論文 参考訳(メタデータ) (2022-10-12T23:53:50Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - PAGnol: An Extra-Large French Generative Model [53.40189314359048]
本稿では,フランスのGPTモデルのコレクションであるPAGnolを紹介する。
スケーリング法則を用いて,CamemBERTと同じ計算予算でPAGnol-XLを効率的に訓練する。
論文 参考訳(メタデータ) (2021-10-16T11:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。