論文の概要: Public Service Algorithm: towards a transparent, explainable, and scalable content curation for news content based on editorial values
- arxiv url: http://arxiv.org/abs/2506.22270v1
- Date: Fri, 27 Jun 2025 14:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.237165
- Title: Public Service Algorithm: towards a transparent, explainable, and scalable content curation for news content based on editorial values
- Title(参考訳): 公開サービスアルゴリズム:編集値に基づくニュースコンテンツの透明で説明可能な、スケーラブルなコンテンツキュレーションを目指して
- Authors: Ahmad Mel, Sebastien Noir,
- Abstract要約: Public Service Algorithm(PSA)は、Public Service Media(PSM)にインスパイアされた価値に基づいた、スケーラブルで透明なコンテンツキュレーションのための新しいフレームワークである。
以上の結果から,人間の編集判断とLarge Language Models (LLMs) の評価との間に有望な整合性があることが示唆された。
この研究は、信頼できるニュースコンテンツの自動キュレーションのためのスケーラブルなフレームワークへの第一歩となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of disinformation challenges traditional, unscalable editorial processes and existing automated systems that prioritize engagement over public service values. To address this, we introduce the Public Service Algorithm (PSA), a novel framework using Large Language Models (LLMs) for scalable, transparent content curation based on Public Service Media (PSM) inspired values. Utilizing a large multilingual news dataset from the 'A European Perspective' project, our experiment directly compared article ratings from a panel of experienced editors from various European PSMs, with those from several LLMs, focusing on four criteria: diversity, in-depth analysis, forward-looking, and cross-border relevance. Utilizing criterion-specific prompts, our results indicate a promising alignment between human editorial judgment and LLM assessments, demonstrating the potential of LLMs to automate value-driven curation at scale without sacrificing transparency. This research constitutes a first step towards a scalable framework for the automatic curation of trustworthy news content.
- Abstract(参考訳): 偽情報の拡散は、従来の、計算不能な編集プロセスと、公共サービスの価値よりもエンゲージメントを優先する既存の自動化システムに挑戦する。
これを解決するために、パブリックサービスメディア(PSM)にインスパイアされた価値に基づいたスケーラブルで透明なコンテンツキュレーションのためのLarge Language Models(LLM)を用いた新しいフレームワークであるPublic Service Algorithm(PSA)を紹介した。
ヨーロッパパースペクティブ」プロジェクトからの大規模な多言語ニュースデータセットを用いて、実験では、様々なヨーロッパPSMの経験豊富な編集者のパネルから得られた記事のレーティングを、多様性、詳細な分析、前方視、国境を越えた関連性という4つの基準に焦点をあてて比較した。
この結果から,人間の編集判断とLLM評価の整合性が期待できることを示すとともに,LLMが透明性を犠牲にすることなく,大規模に価値駆動型キュレーションを自動化できることが示唆された。
この研究は、信頼できるニュースコンテンツの自動キュレーションのためのスケーラブルなフレームワークへの第一歩となる。
関連論文リスト
- Profiling News Media for Factuality and Bias Using LLMs and the Fact-Checking Methodology of Human Experts [29.95198868148809]
本稿では,プロのファクトチェッカーがアウトレット全体の事実と政治的偏見を評価するために使用する基準をエミュレートする新しい手法を提案する。
メディアの人気と地域がモデル性能に与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2025-06-14T15:49:20Z) - MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - VilBias: A Study of Bias Detection through Linguistic and Visual Cues , presenting Annotation Strategies, Evaluation, and Key Challenges [2.2751168722976587]
VLBiasは、最先端のLarge Language Models(LLM)とVision-Language Models(VLM)を活用して、ニュースコンテンツの言語的および視覚的バイアスを検出するフレームワークである。
本稿では,多様なニュースソースからのテキストコンテンツと対応する画像からなるマルチモーダルデータセットを提案する。
論文 参考訳(メタデータ) (2024-12-22T15:05:30Z) - CATER: Leveraging LLM to Pioneer a Multidimensional, Reference-Independent Paradigm in Translation Quality Evaluation [0.0]
Comprehensive AI-assisted Translation Edit Ratio (CATER)は、機械翻訳(MT)の品質を評価するための新しいフレームワークである。
大きな言語モデル(LLM)は、慎重に設計されたプロンプトベースのプロトコルによって使用される。
論文 参考訳(メタデータ) (2024-12-15T17:45:34Z) - LOLA: LLM-Assisted Online Learning Algorithm for Content Experiments [2.2021543101231167]
現代のメディア企業は、ユーザーにとって最も魅力的で魅力的なコンテンツを特定するために、自動化され効率的な方法を必要としている。
本稿ではまず,3つの純LLM手法を用いて,最もキャッチラインを識別する能力について検討する。
LLM-Assisted Online Learning Algorithm (LOLA) は,Large Language Models (LLM) と適応実験を統合し,コンテンツ配信を最適化する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-03T07:56:58Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - TouchStone: Evaluating Vision-Language Models by Language Models [91.69776377214814]
本稿では,LVLMの様々な能力を総合的に評価するために,強大な言語モデルを用いた評価手法を提案する。
オープンワールドイメージと質問からなる包括的ビジュアル対話データセットTouchStoneを構築し,5つの主要な機能カテゴリと27のサブタスクをカバーした。
GPT-4のような強力なLVLMは、テキスト機能のみを活用することで、対話品質を効果的に評価できることを実証する。
論文 参考訳(メタデータ) (2023-08-31T17:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。