論文の概要: Back to the Future: On Potential Histories in NLP
- arxiv url: http://arxiv.org/abs/2210.06245v1
- Date: Wed, 12 Oct 2022 14:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:12:04.196622
- Title: Back to the Future: On Potential Histories in NLP
- Title(参考訳): バック・トゥ・ザ・フューチャー:NLPの潜在的な歴史について
- Authors: Zeerak Talat and Anne Lauscher
- Abstract要約: 機械学習の現代的手法は、支配的かつヘゲモニックな歴史に偏っていると論じる。
現代社会における辺縁化史を見極めることで、伝統的に辺縁化され排除されたコミュニティの生きた現実を表現するモデルを作ることができる。
- 参考スコア(独自算出の注目度): 11.438985158220797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning and NLP require the construction of datasets to train and
fine-tune models. In this context, previous work has demonstrated the
sensitivity of these data sets. For instance, potential societal biases in this
data are likely to be encoded and to be amplified in the models we deploy. In
this work, we draw from developments in the field of history and take a novel
perspective on these problems: considering datasets and models through the lens
of historical fiction surfaces their political nature, and affords
re-configuring how we view the past, such that marginalized discourses are
surfaced. Building on such insights, we argue that contemporary methods for
machine learning are prejudiced towards dominant and hegemonic histories.
Employing the example of neopronouns, we show that by surfacing marginalized
histories within contemporary conditions, we can create models that better
represent the lived realities of traditionally marginalized and excluded
communities.
- Abstract(参考訳): 機械学習とNLPは、トレーニングと微調整モデルのためのデータセットの構築を必要とする。
この文脈で、以前の研究はこれらのデータセットの感度を実証した。
例えば、このデータの潜在的な社会的バイアスは、コード化され、デプロイするモデルに増幅される可能性が高い。
本研究では,歴史学の分野の発展から,歴史小説のレンズを通してデータセットやモデルを考えると,その政治的性質を反映し,限界化された談話が表面化されるような過去観の再設定を行う。
このような知見に基づいて、現代の機械学習の手法は支配的かつ覇権的な歴史に偏っていると論じる。
ネオプロ名詞の例を用いて,現代における辺縁化史を探索することにより,伝統的に辺縁化・排除された共同体の生きた現実をよりよく表現するモデルが作成できることを示す。
関連論文リスト
- Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - MLOps: A Primer for Policymakers on a New Frontier in Machine Learning [0.0]
この章はデータサイエンティストやMLOpsの専門家を念頭に置いて書かれています。
政策立案者、改革主義者、AI倫理学者、社会学者などのリソースとして使用できる。
論文 参考訳(メタデータ) (2023-01-13T22:18:38Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Forecasting COVID-19 spreading trough an ensemble of classical and
machine learning models: Spain's case study [0.0]
我々は、新型コロナウイルスのパンデミックの近い将来の進化を予測するために、人口モデルと機械学習モデルのアンサンブルの適用性を評価する。
オープンかつパブリックなデータセットのみに依存しており、発生率、ワクチン接種、人間の移動性、気象データに頼っています。
論文 参考訳(メタデータ) (2022-07-12T08:16:44Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。