論文の概要: Generative KI für TA
- arxiv url: http://arxiv.org/abs/2509.02053v1
- Date: Tue, 02 Sep 2025 07:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.95008
- Title: Generative KI für TA
- Title(参考訳): KI für TA
- Authors: Wolfgang Eppler, Reinhard Heil,
- Abstract要約: 本稿では、生成AIの現象とその技術評価(TA)における利用要件について論じる。
記事は、提案されたソリューションと、その実現可能性に関する簡単なノートと、TA作業における生成AIの使用例で締めくくっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many scientists use generative AI in their scientific work. People working in technology assessment (TA) are no exception. TA's approach to generative AI is twofold: on the one hand, generative AI is used for TA work, and on the other hand, generative AI is the subject of TA research. After briefly outlining the phenomenon of generative AI and formulating requirements for its use in TA, the following article discusses in detail the structural causes of the problems associated with it. Although generative AI is constantly being further developed, the structurally induced risks remain. The article concludes with proposed solutions and brief notes on their feasibility, as well as some examples of the use of generative AI in TA work.
- Abstract(参考訳): 多くの科学者は、その科学的研究に生成AIを使用している。
技術アセスメント(TA)に従事する人々は例外ではありません。
TAのジェネレーティブAIへのアプローチは2つある:一方、生成AIはTA作業に使用され、他方、生成AIはTA研究の主題である。
生成AIの現象を概説し,TAにおける利用要件を定式化した上で,その問題の構造的原因について詳述する。
生成AIは絶えず開発されているが、構造的に誘導されるリスクは残っている。
記事は、提案されたソリューションと、その実現可能性に関する簡単なノートと、TA作業における生成AIの使用例で締めくくっている。
関連論文リスト
- Generative to Agentic AI: Survey, Conceptualization, and Challenges [1.8592384822257952]
Generative AI(GenAI)に基づくエージェント人工知能(AI)
これはAIの進化における次の大きなステップであり、より強力な推論と相互作用能力を持つ。
Agentic AIとGenAIの区別はいまだにあまり理解されていない。
論文 参考訳(メタデータ) (2025-04-26T09:47:00Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - A Survey of AI Reliance [10.930678550455568]
この調査は、AI依存に関する新しい包括的な社会技術的視点を提示する。
この調査は、厳格なAI依存の研究をガイドする形態的ボックスをもたらす分類フレームワークを紹介している。
論文 参考訳(メタデータ) (2024-07-22T09:34:58Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。