論文の概要: Remembering Unequally: Global and Disciplinary Bias in LLM-Generated Co-Authorship Networks
- arxiv url: http://arxiv.org/abs/2511.00476v1
- Date: Sat, 01 Nov 2025 10:05:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.795691
- Title: Remembering Unequally: Global and Disciplinary Bias in LLM-Generated Co-Authorship Networks
- Title(参考訳): LLMによる認証ネットワークにおけるグローバルバイアスとディシプリナバイアス
- Authors: Ghazal Kalhor, Afra Mashhadi,
- Abstract要約: 本研究では,Large Language Models (LLM) が共著者ネットワークに与える影響について検討する。
我々は、DeepSeek R1、Llama 4 Scout、Mixtral 8x7Bの3つの著名なモデルにおける効果を評価する。
我々のグローバル分析では、高度に引用された研究者に有利な一貫したバイアスが明らかになっているが、このパターンは均一に観察されていない。
臨床医学などの特定の分野や、アフリカの一部を含む地域は、よりバランスの取れた表現を示している。
- 参考スコア(独自算出の注目度): 3.179831861897336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ongoing breakthroughs in Large Language Models (LLMs) are reshaping search and recommendation platforms at their core. While this shift unlocks powerful new scientometric tools, it also exposes critical fairness and bias issues that could erode the integrity of the information ecosystem. Additionally, as LLMs become more integrated into web-based searches for scholarly tools, their ability to generate summarized research work based on memorized data introduces new dimensions to these challenges. The extent of memorization in LLMs can impact the accuracy and fairness of the co-authorship networks they produce, potentially reflecting and amplifying existing biases within the scientific community and across different regions. This study critically examines the impact of LLM memorization on the co-authorship networks. To this end, we assess memorization effects across three prominent models, DeepSeek R1, Llama 4 Scout, and Mixtral 8x7B, analyzing how memorization-driven outputs vary across academic disciplines and world regions. While our global analysis reveals a consistent bias favoring highly cited researchers, this pattern is not uniformly observed. Certain disciplines, such as Clinical Medicine, and regions, including parts of Africa, show more balanced representation, pointing to areas where LLM training data may reflect greater equity. These findings underscore both the risks and opportunities in deploying LLMs for scholarly discovery.
- Abstract(参考訳): LLM(Large Language Models)のブレークスルーは、検索とレコメンデーションプラットフォームをその中核に作り変えようとしている。
このシフトは強力な新しいサイエントメトリックツールを解放する一方で、情報エコシステムの完全性を損なう可能性がある重要な公正性とバイアスの問題を露呈する。
さらに,LLMが学術ツールのWebベース検索に統合されるにつれて,記憶されたデータに基づいて要約された研究成果を生成する能力は,これらの課題に新たな次元をもたらす。
LLMの記憶の程度は、彼らが生成する共著者ネットワークの正確さと公正性に影響を与える可能性がある。
本研究は,LLM記憶が共著者ネットワークに与える影響を批判的に検討する。
この結果から,DeepSeek R1,Llama 4 Scout,Mixtral 8x7Bの3モデル間での暗記効果を評価し,暗記によるアウトプットが学術分野や世界地域によってどのように異なるかを分析した。
我々のグローバル分析では、高度に引用された研究者に有利な一貫したバイアスが明らかになっているが、このパターンは均一に観察されていない。
臨床医学などの特定の分野や、アフリカの一部を含む地域はよりバランスの取れた表現を示し、LSMのトレーニングデータがより大きな株式を反映する可能性がある地域を指し示している。
これらの知見は、学術的な発見のためのLSMの展開のリスクと機会の両方を浮き彫りにした。
関連論文リスト
- Inverse Reinforcement Learning Meets Large Language Model Post-Training: Basics, Advances, and Opportunities [62.05713042908654]
本稿では,逆強化学習(IRL)のレンズによる大規模言語モデル(LLM)のアライメントの進歩について概観する。
我々は、人間のデータからニューラル報酬モデルを構築する必要性を強調し、このパラダイムシフトの形式的および実践的意味について議論する。
論文 参考訳(メタデータ) (2025-07-17T14:22:24Z) - A General Method for Detecting Information Generated by Large Language Models [1.3624495460189865]
大規模言語モデル (LLM) はデジタル情報のランドスケープを変革し、人間の書き起こしコンテンツとLLM生成コンテンツの区別を困難にしている。
現在の検出法は、新しい(目に見えない)LCMやドメインに一般化する際の課題に直面している。
本稿では,2つのメモリネットワーク設計と理論誘導型検出一般化モジュールを組み合わせた汎用LLM検出器(GLD)を提案する。
論文 参考訳(メタデータ) (2025-06-18T04:59:51Z) - Probing Ranking LLMs: A Mechanistic Analysis for Information Retrieval [20.353393773305672]
我々は、LLMのランク付けにおけるニューロンの活性化を調べるために、探索に基づく分析を用いる。
本研究は,語彙信号,文書構造,問合せ文書間相互作用,複雑な意味表現など,幅広い機能カテゴリにまたがる。
我々の発見は、より透明で信頼性の高い検索システムを開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-24T08:20:10Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - EpiK-Eval: Evaluation for Language Models as Epistemic Models [16.485951373967502]
セグメンテッドな物語から一貫した知識表現を定式化する上で,LLMの習熟度を評価するための新しい質問答えベンチマークであるEpiK-Evalを紹介する。
これらの欠点は、一般的な訓練目的の本質的な性質に起因していると論じる。
本研究の成果は,より堅牢で信頼性の高いLCMを開発する上での洞察を与えるものである。
論文 参考訳(メタデータ) (2023-10-23T21:15:54Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。