論文の概要: InFact: Informativeness Alignment for Improved LLM Factuality
- arxiv url: http://arxiv.org/abs/2505.20487v1
- Date: Mon, 26 May 2025 19:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.274216
- Title: InFact: Informativeness Alignment for Improved LLM Factuality
- Title(参考訳): InFact: LLMの精度向上のためのインフォーマルネスアライメント
- Authors: Roi Cohen, Russa Biswas, Gerard de Melo,
- Abstract要約: 本稿では,正解と正解の両方を優先する情報性アライメント機構を提案する。
私たちの研究の重要な発見は、この目標を最大化したり、好みを最適化するためにモデルをトレーニングする場合、情報だけでなく、事実性も改善できるということです。
- 参考スコア(独自算出の注目度): 24.544594158296285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Factual completeness is a general term that captures how detailed and informative a factually correct text is. For instance, the factual sentence ``Barack Obama was born in the United States'' is factually correct, though less informative than the factual sentence ``Barack Obama was born in Honolulu, Hawaii, United States''. Despite the known fact that LLMs tend to hallucinate and generate factually incorrect text, they might also tend to choose to generate factual text that is indeed factually correct and yet less informative than other, more informative choices. In this work, we tackle this problem by proposing an informativeness alignment mechanism. This mechanism takes advantage of recent factual benchmarks to propose an informativeness alignment objective. This objective prioritizes answers that are both correct and informative. A key finding of our work is that when training a model to maximize this objective or optimize its preference, we can improve not just informativeness but also factuality.
- Abstract(参考訳): 事実的完全性(英: Factual completeness)とは、事実的に正しいテキストがいかに詳細に情報的であるかを捉える一般的な用語である。
例えば、「バラック・オバマはアメリカ合衆国で生まれた」という事実文は事実的には正しいが、「バラック・オバマはハワイ州ホノルルで生まれた」という事実文よりは情報に乏しい。
LLMが実際に誤ったテキストを幻覚し生成する傾向にあるという既知の事実にもかかわらず、実際は正しいが、他のより情報に富んだ選択よりも情報に乏しい事実のテキストを生成する傾向にある。
本研究では,情報性アライメント機構を提案することでこの問題に対処する。
このメカニズムは、最近の実測ベンチマークを利用して、情報性アライメントの目的を提案する。
この目的は、正確かつ情報的の両方の回答を優先する。
私たちの研究の重要な発見は、この目標を最大化したり、好みを最適化するためにモデルをトレーニングする場合、情報だけでなく、事実性も改善できるということです。
関連論文リスト
- FactAlign: Long-form Factuality Alignment of Large Language Models [35.067998820937284]
大規模言語モデルは次世代の情報アクセスエンジンとして大きな可能性を示している。
本稿では,FactAlignを提案する。FactAlignは,長文応答の現実性を高めるために設計された,新しいアライメントフレームワークである。
オープンドメインのプロンプトと情報検索に関する実験により、FactAlignはLLM応答の事実精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-02T16:03:13Z) - Content Moderation by LLM: From Accuracy to Legitimacy [4.249974621573213]
論文は、正確さが不十分で誤解を招くのは、容易なケースと難しいケースの区別がつかめないからであると主張している。
著者は、コンテンツモデレーションはプラットフォームガバナンスの一部であり、その鍵は正当性を獲得し、強化することだと主張している。
論文 参考訳(メタデータ) (2024-09-05T03:33:54Z) - FLAME: Factuality-Aware Alignment for Large Language Models [86.76336610282401]
従来のアライメントプロセスでは,大規模言語モデル(LLM)の事実精度が向上しない。
両段階の幻覚につながる要因は,教師付き微調整(SFT)と強化学習(RL)である。
直接選好最適化により,事実認識型SFTと事実認識型RLで構成された事実認識型アライメントを提案する。
論文 参考訳(メタデータ) (2024-05-02T17:54:54Z) - Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Towards Optimal Learning of Language Models [124.65669486710992]
言語モデル(LM)の最適学習の理論を提案する。
我々は、最適学習過程における力学の性質を明らかにするために、学習法則という定理を導出した。
我々は、LMの最適学習が、LMのスケーリング法則における係数の改善に起因することを実証的に検証した。
論文 参考訳(メタデータ) (2024-02-27T18:52:19Z) - The Earth is Flat? Unveiling Factual Errors in Large Language Models [89.94270049334479]
ChatGPTのような大規模言語モデル(LLM)は、事前学習や微調整の知識が豊富にあるため、様々な応用がある。
それにもかかわらず、医療、ジャーナリズム、教育といった重要な分野に懸念を抱き、事実と常識の誤りを引き起こす傾向にある。
LLMにおける事実不正確な事実を明らかにすることを目的とした,新しい自動テストフレームワークであるFactCheckerを紹介する。
論文 参考訳(メタデータ) (2024-01-01T14:02:27Z) - Alignment for Honesty [105.72465407518325]
最近の研究は、大きな言語モデル(LLM)を有用性と無害性と整合させることに大きく貢献している。
本稿は,LLMが知識の欠如に積極的に回答を拒むことを確実にする,エンフォネストリーにおけるアライメントの重要性を論じる。
これらの課題に対処するために、まずは正確な問題定義を確立し、儒教の分析に触発された「誠実さ」を定義します。
論文 参考訳(メタデータ) (2023-12-12T06:10:42Z) - Factuality Enhanced Language Models for Open-Ended Text Generation [60.27166549575472]
我々は、LM世代の実測のためのFactalityPromptsテストセットとメトリクスを設計する。
より大きなLMはより小さなものよりも現実的であることが分かるが、以前の研究では、大きなLMは誤解の観点からは真実性が低いことを示唆している。
そこで本稿では,TopicPrefixを用いた事実認識と文完成のための実感強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T17:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。