論文の概要: Societal Biases in Language Generation: Progress and Challenges
- arxiv url: http://arxiv.org/abs/2105.04054v1
- Date: Mon, 10 May 2021 00:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:02:43.584412
- Title: Societal Biases in Language Generation: Progress and Challenges
- Title(参考訳): 言語生成における社会バイアス:進歩と課題
- Authors: Emily Sheng, Kai-Wei Chang, Premkumar Natarajan, and Nanyun Peng
- Abstract要約: 言語生成は、直接ユーザインタラクションとデコード技術の構造に関して、独自の課題を提示する。
本研究では, 言語生成における社会的バイアスに関する調査を行い, 技術がバイアスにどのように貢献するか, バイアス分析と緩和への進展に焦点をあてる。
復号化技術によるバイアスの研究の欠如により、これらの手法の効果を定量化するための実験も行なっている。
- 参考スコア(独自算出の注目度): 43.06301135908934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Technology for language generation has advanced rapidly, spurred by
advancements in pre-training large models on massive amounts of data and the
need for intelligent agents to communicate in a natural manner. While
techniques can effectively generate fluent text, they can also produce
undesirable societal biases that can have a disproportionately negative impact
on marginalized populations. Language generation presents unique challenges in
terms of direct user interaction and the structure of decoding techniques. To
better understand these challenges, we present a survey on societal biases in
language generation, focusing on how techniques contribute to biases and on
progress towards bias analysis and mitigation. Motivated by a lack of studies
on biases from decoding techniques, we also conduct experiments to quantify the
effects of these techniques. By further discussing general trends and open
challenges, we call to attention promising directions for research and the
importance of fairness and inclusivity considerations for language generation
applications.
- Abstract(参考訳): 言語生成技術は、大量のデータに対する大規模モデルの事前訓練の進展と、知的エージェントによる自然なコミュニケーションの必要性により、急速に進歩している。
技術は流動的なテキストを効果的に生成できるが、それはまた望ましくない社会的偏見を生み出すことができる。
言語生成は、直接ユーザインタラクションと復号化技術の構造の観点から、ユニークな課題を提示している。
これらの課題をより深く理解するため,我々は言語生成における社会的バイアスに関する調査を行い,手法がバイアスに対してどのように寄与するか,バイアス分析と緩和に向けた進歩に焦点をあてた。
復号化技術によるバイアスの研究の欠如により,これらの手法の効果を定量化するための実験も行った。
一般的な傾向とオープンな課題をさらに議論することで、研究に有望な方向性と、言語生成アプリケーションにおける公平性と排他的考慮の重要性に注意を向ける。
関連論文リスト
- Detection of Machine-Generated Text: Literature Survey [0.0]
本研究の目的は,機械生成テキスト分野における成果と成果をコンパイルし,合成することである。
また、機械が生成するテキストの傾向を概観し、より大きな社会的意味を探求する。
論文 参考訳(メタデータ) (2024-01-02T01:44:15Z) - Developing Linguistic Patterns to Mitigate Inherent Human Bias in
Offensive Language Detection [1.6574413179773761]
本稿では,ラベル付けプロセスにおけるバイアスを低減するための言語データ拡張手法を提案する。
このアプローチは、複数の言語にわたる攻撃的な言語分類タスクを改善する可能性がある。
論文 参考訳(メタデータ) (2023-12-04T10:20:36Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - On the application of Large Language Models for language teaching and
assessment technology [18.735612275207853]
我々は,AIによる言語教育とアセスメントシステムに大規模言語モデルを導入する可能性を検討する。
より大きな言語モデルは、テキスト生成における以前のモデルよりも改善されていることがわかった。
自動階調と文法的誤り訂正において、よく知られたベンチマークで進捗が確認されたタスクについては、初期の調査では、彼ら自身の大きな言語モデルが最先端の結果を改善していないことが示されている。
論文 参考訳(メタデータ) (2023-07-17T11:12:56Z) - Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language
Models [11.323961700172175]
本稿では,ChatGPTのような大規模言語モデルにおけるバイアスに関連する課題とリスクについて考察する。
我々は、トレーニングデータの性質、モデル仕様、アルゴリズム制約、製品設計、ポリシー決定など、バイアスの起源について論じる。
私たちは、言語モデルにおけるバイアスを特定し、定量化し、緩和するための現在のアプローチをレビューし、より公平で透明で責任あるAIシステムを開発するための、多分野の協力的な取り組みの必要性を強調します。
論文 参考訳(メタデータ) (2023-04-07T17:14:00Z) - Why is constrained neural language generation particularly challenging? [13.62873478165553]
本稿では、制約付きニューラルネットワーク生成の新たな話題について広範な調査を行う。
我々は条件と制約を区別し、制約付きテキスト生成タスクを提示し、制約付きテキスト生成のための既存の方法と評価指標をレビューする。
我々の目標は、この新興分野の最近の進歩とトレンドを強調し、最も有望な方向性と、制約のあるニューラルネットワーク生成研究の最先端への限界を知らせることである。
論文 参考訳(メタデータ) (2022-06-11T02:07:33Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。