論文の概要: Words of Wisdom: Representational Harms in Learning From AI
Communication
- arxiv url: http://arxiv.org/abs/2111.08581v1
- Date: Tue, 16 Nov 2021 15:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 13:50:19.402391
- Title: Words of Wisdom: Representational Harms in Learning From AI
Communication
- Title(参考訳): 知恵の言葉:AIコミュニケーションから学ぶための表現的ハーム
- Authors: Amanda Buddemeyer, Erin Walker, Malihe Alikhani
- Abstract要約: すべてのAIコミュニケーションを含むすべての言語は、言語の作成に貢献した人間や人間のアイデンティティに関する情報を符号化している、と私たちは主張する。
しかし、AI通信では、ユーザはソースにマッチしないID情報をインデックスすることができる。
これは、ある文化集団に関連する言語が「標準」または「中立」として提示される場合、表現上の害をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 9.998078491879143
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many educational technologies use artificial intelligence (AI) that presents
generated or produced language to the learner. We contend that all language,
including all AI communication, encodes information about the identity of the
human or humans who contributed to crafting the language. With AI
communication, however, the user may index identity information that does not
match the source. This can lead to representational harms if language
associated with one cultural group is presented as "standard" or "neutral", if
the language advantages one group over another, or if the language reinforces
negative stereotypes. In this work, we discuss a case study using a Visual
Question Generation (VQG) task involving gathering crowdsourced data from
targeted demographic groups. Generated questions will be presented to human
evaluators to understand how they index the identity behind the language,
whether and how they perceive any representational harms, and how they would
ideally address any such harms caused by AI communication. We reflect on the
educational applications of this work as well as the implications for equality,
diversity, and inclusion (EDI).
- Abstract(参考訳): 多くの教育技術では、生成された言語を学習者に提示する人工知能(AI)を使用している。
すべてのai通信を含むすべての言語は、言語の作成に寄与した人間や人間のアイデンティティに関する情報をエンコードしていると主張する。
しかし、AI通信では、ユーザはソースにマッチしないID情報をインデックスすることができる。
これは、ある文化グループに関連する言語が「標準」または「中立」として示される場合や、言語が他のグループよりも有利な場合、あるいは言語が否定的なステレオタイプを強化する場合、表現上の害をもたらす可能性がある。
本研究では,対象集団からクラウドソーシングされたデータを収集する視覚質問生成(VQG)タスクを用いたケーススタディについて論じる。
生成された質問は、人間の評価者に提示され、言語の背後にあるアイデンティティーをどのようにインデックスするか、表現上の害をどう知覚するか、そしてAIコミュニケーションによって引き起こされるあらゆる害にどのように対処するかを理解する。
我々は,この研究の教育的応用と平等,多様性,包摂性(edi)の意義について考察する。
関連論文リスト
- Trust and ethical considerations in a multi-modal, explainable AI-driven
chatbot tutoring system: The case of collaboratively solving Rubik's Cube [14.012087492118015]
高校のAI教育における著名な倫理的問題は、データのプライバシー、情報漏洩、虐待的言語、公平性である。
本稿では,マルチモーダル・コラボレーティブ・プラットフォームにおける倫理的かつ信頼性の高い懸念に対処するために構築された技術コンポーネントについて述べる。
データプライバシでは、子どもや親、教師のインフォームドコンセントが、管理されるデータの中心にあることを確実にしたいと思っています。
論文 参考訳(メタデータ) (2024-01-30T16:33:21Z) - Dealing with Semantic Underspecification in Multimodal NLP [3.5846770619764423]
人間として言語を習得しようとするインテリジェントなシステムは、その意味的過小評価に対処しなければならない。
標準のNLPモデルは、原則として、そのような余分な情報にアクセスできないか制限されている。
言語を他のモダリティ、例えば視覚に基礎を置くマルチモーダルシステムは、この現象を説明するために自然に装備されている。
論文 参考訳(メタデータ) (2023-06-08T14:39:24Z) - Language-Driven Representation Learning for Robotics [115.93273609767145]
ロボット工学における視覚表現学習の最近の研究は、日々の作業を行う人間の大規模なビデオデータセットから学ぶことの可能性を実証している。
人間のビデオやキャプションから言語による表現学習を行うためのフレームワークを提案する。
我々は、Voltronの言語駆動学習が、特に高レベル制御を必要とするターゲット問題において、先行技術よりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-02-24T17:29:31Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - Human Heuristics for AI-Generated Language Are Flawed [8.465228064780744]
我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
論文 参考訳(メタデータ) (2022-06-15T03:18:56Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - A Definition and a Test for Human-Level Artificial Intelligence [1.3140673348778702]
人間は、状態、行動、および対応する報酬列を経験しているかのように、言葉による記述でアクション値関数を更新することができる。
本稿では、各エージェントがどのように学習するかに応じて知能の分類を行い、HLAIの定義とテストを提案する。
論文 参考訳(メタデータ) (2020-11-18T17:10:02Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - Presentation and Analysis of a Multimodal Dataset for Grounded Language
Learning [32.28310581819443]
接地的な言語習得は、言語に基づく相互作用が周囲の世界をどのように参照するかを学ぶことを伴う。
実際には、学習に使用されるデータは、実際の人間のインタラクションよりもクリーンで、クリアで、文法的な傾向があります。
本稿では,話し言葉と書き言葉を併用した家庭内共通物体のデータセットについて述べる。
論文 参考訳(メタデータ) (2020-07-29T17:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。