論文の概要: DSA, AIA, and LLMs: Approaches to conceptualizing and auditing moderation in LLM-based chatbots across languages and interfaces in the electoral contexts
- arxiv url: http://arxiv.org/abs/2509.19890v1
- Date: Wed, 24 Sep 2025 08:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.742449
- Title: DSA, AIA, and LLMs: Approaches to conceptualizing and auditing moderation in LLM-based chatbots across languages and interfaces in the electoral contexts
- Title(参考訳): DSA, AIA, LLMs:LLMベースのチャットボットにおける言語とインターフェース間のモデレーションの概念化と監査へのアプローチ
- Authors: Natalia Stanusch, Raziye Buse Cetin, Salvatore Romano, Miazia Schueler, Meret Baumgartner, Bastian August, Alexandra Rosca,
- Abstract要約: 大規模言語モデルの検索エンジンへの統合は、これらのオンラインエンティティによって出力されるコンテンツの管理、評価、精査に新たな課題をもたらす。
まず、LLMベースのチャットボットとモデレーションの概念をシチュレートできる規制環境について調査する。
我々は、2024年の欧州議会選挙と2024年のアメリカ合衆国大統領選挙の文脈において、コパイロット、チャットGPT、ジェミニを10言語にわたって調査した。
- 参考スコア(独自算出の注目度): 33.72751145910978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Large Language Models (LLMs) into chatbot-like search engines poses new challenges for governing, assessing, and scrutinizing the content output by these online entities, especially in light of the Digital Service Act (DSA). In what follows, we first survey the regulation landscape in which we can situate LLM-based chatbots and the notion of moderation. Second, we outline the methodological approaches to our study: a mixed-methods audit across chatbots, languages, and elections. We investigated Copilot, ChatGPT, and Gemini across ten languages in the context of the 2024 European Parliamentary Election and the 2024 US Presidential Election. Despite the uncertainty in regulatory frameworks, we propose a set of solutions on how to situate, study, and evaluate chatbot moderation.
- Abstract(参考訳): 大規模言語モデル(LLM)をチャットボットのような検索エンジンに統合することは、特にデジタルサービス法(DSA)に照らして、これらのオンラインエンティティによって出力されるコンテンツの管理、評価、精査に新たな課題をもたらす。
以下に示すように,LLMベースのチャットボットとモデレーションの概念をシチュレートできる規制環境について,まず調査する。
第二に、我々の研究の方法論的アプローチを概説する:チャットボット、言語、選挙にまたがる混合メソッド監査。
我々は、2024年の欧州議会選挙と2024年のアメリカ合衆国大統領選挙の文脈において、コパイロット、チャットGPT、ジェミニを10言語にわたって調査した。
規制フレームワークの不確実性にもかかわらず、チャットボットのモデレーションを満足させ、研究し、評価するための一連のソリューションを提案する。
関連論文リスト
- CEA-LIST at CheckThat! 2025: Evaluating LLMs as Detectors of Bias and Opinion in Text [3.9845507207125967]
本稿では,大言語モデル (LLM) を用いた多言語主観性検出の競争的アプローチを提案する。
LLMは、慎重に設計されたプロンプトと組み合わせることで、微調整されたより小さな言語モデル(SLM)に適合または優れることを示す。
このシステムは,2025年の主観性検出タスクにおいて,複数の言語で上位にランクインした。
論文 参考訳(メタデータ) (2025-07-10T08:35:05Z) - A Framework for Auditing Chatbots for Dialect-Based Quality-of-Service Harms [0.6144680854063939]
方言バイアスに対する大規模言語モデル(LLM)に基づくチャットボットの監査のためのフレームワークを提案する。
システムが異なる人々に対して同じように機能しない場合に発生する、サービス品質の悪影響の程度を測定します。
私たちのフレームワークには,実際に有用な3つの重要な特徴があります。
論文 参考訳(メタデータ) (2025-06-04T19:58:51Z) - Revealing Hidden Mechanisms of Cross-Country Content Moderation with Natural Language Processing [34.69237228285959]
我々は,既存のTwitter Stream Grabのコーパスを用いて,各国のコンテンツモデレーション決定について検討した。
われわれの実験では、検閲された投稿に、国や時間とともに興味深いパターンが浮かび上がっている。
コンテンツモデレーションにおけるLLMの有効性を評価する。
論文 参考訳(メタデータ) (2025-03-07T09:49:31Z) - Investigating LLMs as Voting Assistants via Contextual Augmentation: A Case Study on the European Parliament Elections 2024 [22.471701390730185]
2024年の欧州議会議員選挙では、LLMsがVoting Advice Applications (VAA)として利用できるかどうかを調査している。
我々は、MISTRALとMIXTRALモデルを評価し、最新の「EUとI」投票支援アンケートに基づいて、政党の姿勢を予測する際の精度を評価した。
その結果、MIXTRALは平均82%の精度で精度が高く、異なる政治集団間で大きな性能差があることがわかった。
論文 参考訳(メタデータ) (2024-07-11T13:29:28Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。