論文の概要: Provocations from the Humanities for Generative AI Research
- arxiv url: http://arxiv.org/abs/2502.19190v1
- Date: Wed, 26 Feb 2025 14:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:59:37.984469
- Title: Provocations from the Humanities for Generative AI Research
- Title(参考訳): ジェネレーティブAI研究のための人文科学からの挑発
- Authors: Lauren Klein, Meredith Martin, André Brock, Maria Antoniak, Melanie Walsh, Jessica Marie Johnson, Lauren Tilton, David Mimno,
- Abstract要約: 本稿では, 人文科学研究者の視点から, 生成AIの利用, 影響, 害を考慮した一連の挑発について述べる。
我々は人文科学研究の作業的定義を提供し、その最も健全な理論と手法の一部を要約し、これらの理論と手法を現在のAIの風景に適用する。
- 参考スコア(独自算出の注目度): 5.0490887690274455
- License:
- Abstract: This paper presents a set of provocations for considering the uses, impact, and harms of generative AI from the perspective of humanities researchers. We provide a working definition of humanities research, summarize some of its most salient theories and methods, and apply these theories and methods to the current landscape of AI. Drawing from foundational work in critical data studies, along with relevant humanities scholarship, we elaborate eight claims with broad applicability to current conversations about generative AI: 1) Models make words, but people make meaning; 2) Generative AI requires an expanded definition of culture; 3) Generative AI can never be representative; 4) Bigger models are not always better models; 5) Not all training data is equivalent; 6) Openness is not an easy fix; 7) Limited access to compute enables corporate capture; and 8) AI universalism creates narrow human subjects. We conclude with a discussion of the importance of resisting the extraction of humanities research by computer science and related fields.
- Abstract(参考訳): 本稿では, 人文科学研究者の視点から, 生成AIの利用, 影響, 害を考慮した一連の挑発について述べる。
我々は人文科学研究の作業的定義を提供し、その最も健全な理論と手法の一部を要約し、これらの理論と手法を現在のAIの風景に適用する。
批判データ研究の基礎研究から、関連する人文科学の奨学金とともに、生成AIに関する現在の会話に広く適用可能な8つの主張を詳述する。
1) モデルは言葉を作るが、人々は意味を成す。
2) 創造的AIは、文化の定義を拡大する必要がある。
3) 生成AIは決して代表できない。
4) 大型モデルは必ずしも優れたモデルであるとは限らない。
5) すべてのトレーニングデータが等価であるとは限らない。
6) 開放性は容易な修正ではない。
7) 計算への限られたアクセスは,企業による捕獲を可能にする。
8)AI普遍主義は、狭い人間の主題を創出する。
本稿では,コンピュータ科学と関連分野による人文科学研究の抽出に抵抗することの重要性について論じる。
関連論文リスト
- AI in the Cosmos [0.0]
情報源分類、スペクトルエネルギー分布モデリングなど、天体物理学におけるAI応用例を強調し、生成AIによる達成可能な進歩について議論する。
AIの使用は、バイアスやエラー、AIモデルの“ブラックボックス”といった課題を導入している。
これらの問題は、人間の専門知識とドメイン固有の知識をAIアプリケーションに統合するHG-AI(Human-Guided AI)の概念を通じて解決することができる。
論文 参考訳(メタデータ) (2024-12-13T12:30:11Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Modelling Human Values for AI Reasoning [2.320648715016106]
我々は,その明示的な計算表現のために,人間の値の形式モデルを詳述する。
我々は、このモデルが、価値に対するAIベースの推論の基礎となる装置をいかに提供できるかを示す。
我々は、AIにおける人間の価値を統合し、学際的に研究するためのロードマップを提案する。
論文 参考訳(メタデータ) (2024-02-09T12:08:49Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Towards a Science of Human-AI Decision Making: A Survey of Empirical
Studies [22.214709837295906]
AI支援による人間の意思決定を強化する研究コミュニティへの関心が高まっている。
人間-AI意思決定の新たな分野は、人間がAIとどのように相互作用し、どのように働くかに関する基礎的な理解を形成するための経験的アプローチを取り入れなければならない。
論文 参考訳(メタデータ) (2021-12-21T19:00:02Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。