論文の概要: Communication Bias in Large Language Models: A Regulatory Perspective
- arxiv url: http://arxiv.org/abs/2509.21075v1
- Date: Thu, 25 Sep 2025 12:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.898018
- Title: Communication Bias in Large Language Models: A Regulatory Perspective
- Title(参考訳): 大規模言語モデルにおけるコミュニケーションバイアス : 規制的視点
- Authors: Adrian Kuenzler, Stefan Schmid,
- Abstract要約: 本稿では、EUのAI法やデジタルサービス法のようなフレームワークに焦点を当て、バイアスのあるアウトプットのリスクとその社会的影響をレビューする。
絶え間ない規制を超えて、公正で信頼できるAIを確保するためには、競争やデザインガバナンスへのより強い注意が必要である、と私たちは主張する。
- 参考スコア(独自算出の注目度): 4.824034405285729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly central to many applications, raising concerns about bias, fairness, and regulatory compliance. This paper reviews risks of biased outputs and their societal impact, focusing on frameworks like the EU's AI Act and the Digital Services Act. We argue that beyond constant regulation, stronger attention to competition and design governance is needed to ensure fair, trustworthy AI. This is a preprint of the Communications of the ACM article of the same title.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くのアプリケーションにおいてますます中心となってきており、バイアス、公正性、規制の遵守に関する懸念が高まっている。
本稿では、EUのAI法やデジタルサービス法のようなフレームワークに焦点を当て、バイアスのあるアウトプットのリスクとその社会的影響をレビューする。
絶え間ない規制を超えて、公正で信頼できるAIを確保するためには、競争やデザインガバナンスへのより強い注意が必要である、と私たちは主張する。
これは、同じタイトルのACM記事のコミュニケーションのプレプリントです。
関連論文リスト
- Enhancements for Developing a Comprehensive AI Fairness Assessment Standard [1.9662978733004601]
本稿では、画像、非構造化テキスト、生成AIの公平性評価を含むTEC標準の拡張を提案する。
これらの次元を取り入れることで、強化されたフレームワークは、さまざまな分野にわたる責任と信頼性のあるAIデプロイメントを促進する。
論文 参考訳(メタデータ) (2025-04-10T07:24:23Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Generative AI as Digital Media [0.0]
生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
論文 参考訳(メタデータ) (2025-03-09T08:58:17Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Regulating Chatbot Output via Inter-Informational Competition [8.168523242105763]
本稿では、AI関連コンテンツリスクとそれに対応する規制提案を再評価するためのヤードスティックを開発する。
情報市場における情報ソース間の十分な競争は、生成的AI技術によって引き起こされるコンテンツリスクを十分に軽減し、解決することができる、と同社は主張する。
論文 参考訳(メタデータ) (2024-03-17T00:11:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。