論文の概要: Debiasing Large Language Models in Thai Political Stance Detection via Counterfactual Calibration
- arxiv url: http://arxiv.org/abs/2509.21946v1
- Date: Fri, 26 Sep 2025 06:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.238316
- Title: Debiasing Large Language Models in Thai Political Stance Detection via Counterfactual Calibration
- Title(参考訳): 対実校正によるタイの政治スタンス検出における大規模言語モデルの曖昧化
- Authors: Kasidit Sermsri, Teerapong Panboonyuen,
- Abstract要約: タイの政治は、間接的な言語、偏りのある人物、絡み合った感情とスタンスによって特徴付けられる。
低リソースで文化的に複雑な環境での政治的スタンスの検出は、大きな言語モデルにとって重要な課題である。
我々は、微調整を必要とせず、政治的偏見を緩和する、軽量でモデルに依存しないキャリブレーションフレームワークであるThaiFACTUALを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Political stance detection in low-resource and culturally complex settings poses a critical challenge for large language models (LLMs). In the Thai political landscape - marked by indirect language, polarized figures, and entangled sentiment and stance - LLMs often display systematic biases such as sentiment leakage and favoritism toward entities. These biases undermine fairness and reliability. We present ThaiFACTUAL, a lightweight, model-agnostic calibration framework that mitigates political bias without requiring fine-tuning. ThaiFACTUAL uses counterfactual data augmentation and rationale-based supervision to disentangle sentiment from stance and reduce bias. We also release the first high-quality Thai political stance dataset, annotated with stance, sentiment, rationales, and bias markers across diverse entities and events. Experimental results show that ThaiFACTUAL significantly reduces spurious correlations, enhances zero-shot generalization, and improves fairness across multiple LLMs. This work highlights the importance of culturally grounded debiasing techniques for underrepresented languages.
- Abstract(参考訳): 低リソースで文化的に複雑な環境での政治的スタンス検出は、大規模言語モデル(LLM)にとって重要な課題である。
タイの政治情勢では、間接的な言語、偏見的人物、絡み合った感情と姿勢が特徴であり、LLMは感情の漏洩やエンティティへの好意などの体系的な偏見をしばしば示している。
これらのバイアスは公平性と信頼性を損なう。
我々は、微調整を必要とせず、政治的偏見を緩和する、軽量でモデルに依存しないキャリブレーションフレームワークであるThaiFACTUALを提案する。
ThaiFACTUALは、反ファクト的なデータ拡張と合理性に基づく監視を使用して、感情をスタンスから遠ざけ、バイアスを減らす。
また、さまざまなエンティティやイベントにまたがるスタンス、感情、合理性、バイアスマーカーを付加した、最初の高品質なタイの政治的スタンスデータセットもリリースしています。
実験結果から,ThaiFACTUALはスプリアス相関を著しく低減し,ゼロショット一般化を向上し,複数のLLMの公平性を向上させることが示された。
この研究は、表現不足言語に対する文化的基盤のデバイアス技術の重要性を強調している。
関連論文リスト
- BIPOLAR: Polarization-based granular framework for LLM bias evaluation [0.0]
本研究では,大規模言語モデルにおける偏光関連バイアスを評価するために,再利用性,粒度,トピックに依存しないフレームワークを提案する。
我々のアプローチは、偏極感性感情メトリクスと、競合関連文の合成的に生成されたバランスの取れたデータセットを組み合わせる。
ケーススタディでは、ロシアとウクライナの戦争に焦点を当てた合成データセットを作成し、いくつかのLSMのバイアスを評価した。
論文 参考訳(メタデータ) (2025-08-14T20:44:19Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Analyzing Political Bias in LLMs via Target-Oriented Sentiment Classification [4.352835414206441]
LLMによって符号化された政治的バイアスは下流のアプリケーションに有害な影響を及ぼす可能性がある。
我々は,LLMの感情予測が同一文の目的語と異なるという観察を活用する新しいアプローチを提案する。
我々は、人口統計学的および政治的に多様な政治家名を450の政治文に挿入し、6つの広く話される言語で7つのモデルを用いて目標志向の感情を予測する。
論文 参考訳(メタデータ) (2025-05-26T10:01:24Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Mitigating Political Bias in Language Models Through Reinforced
Calibration [6.964628305312507]
GPT-2 世代における政治的偏見を測定する指標について述べる。
生成テキストにおける政治的バイアスを緩和するための強化学習(RL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-30T07:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。