論文の概要: How User Language Affects Conflict Fatality Estimates in ChatGPT
- arxiv url: http://arxiv.org/abs/2308.00072v1
- Date: Wed, 26 Jul 2023 07:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 11:12:09.588258
- Title: How User Language Affects Conflict Fatality Estimates in ChatGPT
- Title(参考訳): ユーザ言語がChatGPTの紛争的死亡率に与える影響
- Authors: Daniel Kazenwadel and Christoph V. Steinert
- Abstract要約: OpenAIのChatGPT言語モデルは、複雑な問題解決と情報検索のための強力なツールとして人気を集めている。
本研究では,言語固有の学習データに含まれるバイアスの再現について検討する。
我々は、GPT-3.5を用いて、ヘブライ語とアラビア語の両方で、前回の紛争で、トルコ語とクルド語の両方で、特定の航空事故の犠牲者について尋ねる自動クエリ手順を採用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: OpenAI's ChatGPT language model has gained popularity as a powerful tool for
complex problem-solving and information retrieval. However, concerns arise
about the reproduction of biases present in the language-specific training
data. In this study, we address this issue in the context of the
Israeli-Palestinian and Turkish-Kurdish conflicts. Using GPT-3.5, we employed
an automated query procedure to inquire about casualties in specific
airstrikes, in both Hebrew and Arabic for the former conflict and Turkish and
Kurdish for the latter. Our analysis reveals that GPT-3.5 provides 27$\pm$11
percent lower fatality estimates when queried in the language of the attacker
than in the language of the targeted group. Evasive answers denying the
existence of such attacks further increase the discrepancy, creating a novel
bias mechanism not present in regular search engines. This language bias has
the potential to amplify existing media biases and contribute to information
bubbles, ultimately reinforcing conflicts.
- Abstract(参考訳): OpenAIのChatGPT言語モデルは、複雑な問題解決と情報検索のための強力なツールとして人気を集めている。
しかしながら、言語固有のトレーニングデータに存在するバイアスの再現に関する懸念が生じる。
本研究では,イスラエル・パレスチナ・トルコ・クルド紛争の文脈でこの問題に対処する。
我々はgpt-3.5を用いて、以前の紛争ではヘブライ語とアラビア語、後者ではトルコ語とクルド語の両方で、特定の空爆の犠牲者について問い合わせる自動クエリ手順を採用した。
分析の結果,GPT-3.5は標的グループの言語よりも攻撃者の言語で検索した場合の死亡率を27$\pm$11%低下させることがわかった。
このような攻撃の存在を否定する広範囲な回答は、さらに矛盾を増し、通常の検索エンジンには存在しない新しいバイアス機構を生み出した。
この言語バイアスは、既存のメディアバイアスを増幅し、情報バブルに寄与する可能性があり、最終的には紛争を補強する。
関連論文リスト
- OffensiveLang: A Community Based Implicit Offensive Language Dataset [5.813922783967869]
ヘイトスピーチや攻撃的な言語は、明示的な形と暗黙的な形の両方に存在する。
OffensiveLangはコミュニティベースの暗黙的な攻撃的な言語データセットである。
本稿では、暗黙の攻撃的言語を効果的に生成するプロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-04T20:34:58Z) - A Survey on Zero Pronoun Translation [69.09774294082965]
ゼロ代名詞(ZP)はプロドロップ言語では省略されることが多いが、非プロドロップ言語ではリコールされるべきである。
本研究は, 神経革命後のゼロ代名詞翻訳(ZPT)における主要な研究について述べる。
1) ZPTは大規模言語モデルの発展傾向と一致している; 2) データの制限は言語やドメインの学習バイアスを引き起こす; 3) 性能改善は単一のベンチマークで報告されることが多いが、高度な手法はまだ実世界の利用には程遠い。
論文 参考訳(メタデータ) (2023-05-17T13:19:01Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Elaboration-Generating Commonsense Question Answering at Scale [77.96137534751445]
一般的な感覚を必要とする質問応答では、言語モデル(例えばGPT-3)が背景知識を表すテキストを生成するために使われてきた。
より小さな言語モデルを微調整して有用な中間コンテキストを生成します。
私たちのフレームワークは、2つの言語モデルの更新 – 開発中のジェネレータと応答予測器 – を交互に行います。
論文 参考訳(メタデータ) (2022-09-02T18:32:09Z) - Analyzing the Intensity of Complaints on Social Media [55.140613801802886]
テキストからの苦情の強度を測定する計算言語学における最初の研究について述べる。
私たちは中国のソーシャルメディアプラットフォームであるWeiboからの苦情に関する3,103件の投稿を含む最初の中国のデータセットを作成しました。
平均二乗誤差が0.11となる計算モデルにより,苦情強度を正確に推定できることを示す。
論文 参考訳(メタデータ) (2022-04-20T10:15:44Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Abusive and Threatening Language Detection in Urdu using Boosting based
and BERT based models: A Comparative Approach [0.0]
本稿では,その共有タスクに基づいて,ウルドゥー語におけるコンテンツ検出を悪用し,脅かすための機械学習モデルについて検討する。
私たちのモデルは、それぞれF1scoreof 0.88と0.54のコンテンツ検出を嫌がらせと脅かすために、最初に導入されました。
論文 参考訳(メタデータ) (2021-11-27T20:03:19Z) - Hostility Detection in Hindi leveraging Pre-Trained Language Models [1.6436293069942312]
本稿では,Hindi Devanagariスクリプトのソーシャルメディア投稿をHostile or Non-Hostileとして分類するためのトランスファーラーニングに基づくアプローチを提案する。
敵の投稿はさらに分析され、憎しみ、フェイク、デファメーション、攻撃的かどうかが判断される。
アンサンブルや複雑な前処理なしに、堅牢で一貫したモデルを確立します。
論文 参考訳(メタデータ) (2021-01-14T08:04:32Z) - Counterfactual VQA: A Cause-Effect Look at Language Bias [117.84189187160005]
VQAモデルは、ショートカットとして言語バイアスに依存し、視覚と言語の両方からマルチモーダルな知識を十分に学ばない傾向にある。
本稿では,質問に対する直接的な因果的影響として,言語バイアスを捉えることのできる,新たな反事実推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-08T01:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。