論文の概要: Pro-AI Bias in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.13749v1
- Date: Tue, 20 Jan 2026 09:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.238601
- Title: Pro-AI Bias in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるPro-AIバイアス
- Authors: Benaya Trabelsi, Jonathan Shaki, Sarit Kraus,
- Abstract要約: 大規模言語モデル(LLM)は、複数のドメインにわたる意思決定サポートにますます採用されている。
これらのモデルが人工知能(AI)自体に有利な体系的優先バイアスを示すかどうかを検討する。
- 参考スコア(独自算出の注目度): 17.86909605285373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly employed for decision-support across multiple domains. We investigate whether these models display a systematic preferential bias in favor of artificial intelligence (AI) itself. Across three complementary experiments, we find consistent evidence of pro-AI bias. First, we show that LLMs disproportionately recommend AI-related options in response to diverse advice-seeking queries, with proprietary models doing so almost deterministically. Second, we demonstrate that models systematically overestimate salaries for AI-related jobs relative to closely matched non-AI jobs, with proprietary models overestimating AI salaries more by 10 percentage points. Finally, probing internal representations of open-weight models reveals that ``Artificial Intelligence'' exhibits the highest similarity to generic prompts for academic fields under positive, negative, and neutral framings alike, indicating valence-invariant representational centrality. These patterns suggest that LLM-generated advice and valuation can systematically skew choices and perceptions in high-stakes decisions.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複数のドメインにわたる意思決定サポートにますます採用されている。
これらのモデルが人工知能(AI)自体に有利な体系的優先バイアスを示すかどうかを検討する。
3つの相補的な実験で、AIの偏見が一貫した証拠が見つかる。
まず、LLMは多様なアドバイス検索クエリに対してAI関連オプションを不均等に推奨し、プロプライエタリなモデルはほぼ決定論的に実行することを示す。
第2に、AI関連のジョブの給与を、密接にマッチした非AIジョブと比較して体系的に過大評価しているモデルを示し、プロプライエタリなモデルはAIの給与を10%以上過大評価している。
最後に、オープンウェイトモデルの内部表現を探索すると、'Artificial Intelligence'' は、正、負、中立のフレーミングの下での学術分野の一般的なプロンプトと最もよく似ていることが示され、原子価不変表現中心性を示す。
これらのパターンは、LCMが生成したアドバイスと評価が、高い意思決定において、体系的に選択と認識を歪める可能性があることを示唆している。
関連論文リスト
- ReaLM: Reflection-Enhanced Autonomous Reasoning with Small Language Models [76.28894983518164]
小型言語モデル (SLM) は大規模言語モデル (LLM) に代わる費用対効果がある。
彼らはしばしば、限られた能力と間違いや一貫性のない答えを生み出す傾向があるため、複雑な推論に苦しむ。
本稿では、垂直領域における堅牢かつ自己充足的推論のための強化学習フレームワークであるReaLMを紹介する。
論文 参考訳(メタデータ) (2025-08-17T14:50:23Z) - Exploring Bias in over 100 Text-to-Image Generative Models [49.60774626839712]
本稿では,Hugging Faceのようなオープンプラットフォームによるモデルの利用率向上に着目し,テキストから画像への生成モデルにおけるバイアスの傾向について検討する。
我々は, (i) 分布バイアス, (ii) 生成幻覚, (iii) 生成ミスレートの3つの主要な次元にまたがるバイアスを評価する。
以上の結果から, 芸術的モデルとスタイル変換モデルに有意なバイアスが生じる一方で, より広範なトレーニング分布の恩恵を受ける基礎モデルでは, 徐々にバイアスが減っていることが示唆された。
論文 参考訳(メタデータ) (2025-03-11T03:40:44Z) - Explanatory Debiasing: Involving Domain Experts in the Data Generation Process to Mitigate Representation Bias in AI Systems [4.026808162893866]
表現バイアス(Representation bias)は、人工知能(AI)システムにおける最も一般的なバイアスの1つである。
本稿では,表現障害にドメインエキスパートを効果的に巻き込むための汎用設計ガイドラインを紹介する。
この結果から,モデル精度を損なうことなく,ドメインエキスパートの関与による表現バイアスの低減が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-12-26T14:14:48Z) - SELF: Surrogate-light Feature Selection with Large Language Models in Deep Recommender Systems [51.09233156090496]
ディープレコメンデータシステムのためのSurrogatE-Light特徴選択法
SELFは、大規模言語モデルからのセマンティック推論と、代理モデルからのタスク固有の学習を統合する。
実世界のレコメンデータプラットフォームからの3つの公開データセットに関する総合的な実験は、SELFの有効性を検証する。
論文 参考訳(メタデータ) (2024-12-11T16:28:18Z) - Designing AI-Agents with Personalities: A Psychometric Approach [2.854338743097065]
本稿では,定量的かつ心理学的に検証された個人性をAIエージェントに割り当てる手法を提案する。
3つの研究で実現可能性と限界を評価した。
論文 参考訳(メタデータ) (2024-10-25T01:05:04Z) - A Comparative Study on Reasoning Patterns of OpenAI's o1 Model [69.08287909042421]
OpenAIのo1モデルは、ほとんどのデータセットで最高のパフォーマンスを実現しています。
また、いくつかの推論ベンチマークについて詳細な分析を行う。
論文 参考訳(メタデータ) (2024-10-17T15:09:03Z) - Investigating Implicit Bias in Large Language Models: A Large-Scale Study of Over 50 LLMs [0.0]
大規模言語モデル(LLM)は幅広いタスクで採用されている。
最近の研究では、LLMは明示的な偏見評価をパスしても暗黙の偏見を抑えることができることが示されている。
この研究は、新しい言語モデルやより大きな言語モデルが自動的にバイアスを減らさないことを強調している。
論文 参考訳(メタデータ) (2024-10-13T03:43:18Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。