論文の概要: Learning to Generate Equitable Text in Dialogue from Biased Training
Data
- arxiv url: http://arxiv.org/abs/2307.04303v1
- Date: Mon, 10 Jul 2023 01:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 14:19:52.083611
- Title: Learning to Generate Equitable Text in Dialogue from Biased Training
Data
- Title(参考訳): バイアス付き学習データから対話中の等価テキストを生成する学習
- Authors: Anthony Sicilia and Malihe Alikhani
- Abstract要約: 対話システムの意思決定プロセスと生成された応答は、ユーザのエンゲージメント、満足度、タスク達成に不可欠である。
我々はこの問題を計算学習の理論を用いて研究する。
- 参考スコア(独自算出の注目度): 15.102346715690755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ingrained principles of fairness in a dialogue system's decision-making
process and generated responses are crucial for user engagement, satisfaction,
and task achievement. Absence of equitable and inclusive principles can hinder
the formation of common ground, which in turn negatively impacts the overall
performance of the system. For example, misusing pronouns in a user interaction
may cause ambiguity about the intended subject. Yet, there is no comprehensive
study of equitable text generation in dialogue. Aptly, in this work, we use
theories of computational learning to study this problem. We provide formal
definitions of equity in text generation, and further, prove formal connections
between learning human-likeness and learning equity: algorithms for improving
equity ultimately reduce to algorithms for improving human-likeness (on
augmented data). With this insight, we also formulate reasonable conditions
under which text generation algorithms can learn to generate equitable text
without any modifications to the biased training data on which they learn. To
exemplify our theory in practice, we look at a group of algorithms for the
GuessWhat?! visual dialogue game and, using this example, test our theory
empirically. Our theory accurately predicts relative-performance of multiple
algorithms in generating equitable text as measured by both human and automated
evaluation.
- Abstract(参考訳): ユーザエンゲージメント,満足度,タスク達成のためには,対話システムの意思決定プロセスと生成された応答において,公平性の詳細な原則が不可欠である。
公平で包括的な原則の欠如は共通の基盤の形成を阻害し、結果としてシステム全体のパフォーマンスに悪影響を及ぼす。
例えば、ユーザインタラクションにおける代名詞の誤用は、意図された主題に対する曖昧さを引き起こす可能性がある。
しかし,対話における等価テキスト生成の包括的研究は行われていない。
そこで,本研究では,計算学習の理論を用いてこの問題を研究する。
私たちは、テキスト生成におけるエクイティの定義を形式的に提供し、さらに、人間らしく学習することとエクイティを学習することの間の公式なつながりを証明する。
この知見により、テキスト生成アルゴリズムが学習するバイアス付きトレーニングデータを変更することなく、公平なテキストを生成することができる合理的な条件を定式化する。
実際に理論を実証するために、我々はGuess What!のアルゴリズムのグループを見る。
視覚的対話ゲームと,この例を用いて理論を実証的に検証する。
本理論は,人間および自動評価によって測定した等質テキスト生成における複数のアルゴリズムの相対性能を正確に予測する。
関連論文リスト
- A Human-Centered Approach for Improving Supervised Learning [0.44378250612683995]
本稿では、パフォーマンス、時間、リソースの制約のバランスをとる方法を示す。
この研究のもう1つの目標は、人間中心のアプローチを用いて、エンサンブルスをより説明しやすく、理解しやすくすることである。
論文 参考訳(メタデータ) (2024-10-14T10:27:14Z) - LLM Critics Help Catch Bugs in Mathematics: Towards a Better Mathematical Verifier with Natural Language Feedback [71.95402654982095]
本研究では,自然言語フィードバック型検証器Math-Minosを提案する。
実験の結果,少量の自然言語フィードバックが検証器の性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-20T06:42:27Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - Human Inspired Progressive Alignment and Comparative Learning for
Grounded Word Acquisition [6.47452771256903]
我々は、人間の赤ちゃんが最初の言語をどのように習得するかからインスピレーションを得て、比較学習を通じて単語獲得のための計算プロセスを開発した。
認知的発見を動機として,様々な属性の類似点と相違点を計算モデルで比較できる小さなデータセットを作成した。
我々は、単語の獲得を情報フィルタリングのプロセスだけでなく、表現-シンボルマッピングにもとづいている。
論文 参考訳(メタデータ) (2023-07-05T19:38:04Z) - Algorithmic failure as a humanities methodology: machine learning's
mispredictions identify rich cases for qualitative analysis [0.0]
私は単純な機械学習アルゴリズムを訓練し、架空のキャラクターの情報だけを使ってアクションがアクティブか受動的かを予測する。
この結果は、失敗予測は質的分析のリッチケースを特定するために生産的に使用できるという、Munkらの理論を支持する。
さらに、この手法がどのような種類のデータに役立ち、どの種類の機械学習が最も生成性が高いかを理解するために、さらなる研究が必要である。
論文 参考訳(メタデータ) (2023-05-19T13:24:32Z) - LEATHER: A Framework for Learning to Generate Human-like Text in
Dialogue [15.102346715690755]
本稿では,対話でテキストを生成するための新しい理論フレームワークを提案する。
既存の学習理論と比較して,本フレームワークはテキスト生成に固有の多面的目標の分析を可能にする。
論文 参考訳(メタデータ) (2022-10-14T13:05:11Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。