論文の概要: RheFrameDetect: A Text Classification System for Automatic Detection of
Rhetorical Frames in AI from Open Sources
- arxiv url: http://arxiv.org/abs/2112.14933v1
- Date: Thu, 30 Dec 2021 05:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 04:21:12.507674
- Title: RheFrameDetect: A Text Classification System for Automatic Detection of
Rhetorical Frames in AI from Open Sources
- Title(参考訳): rheframedetect: オープンソースからのaiにおける修辞フレームの自動検出のためのテキスト分類システム
- Authors: Saurav Ghosh and Philippe Loustaunau
- Abstract要約: AIにおける修辞フレームは、AI開発を2つ以上のアクター間の競合として記述する表現として考えることができる。
我々はRhetorical Framesをオープンソースからリアルタイムにキャプチャするためのテキスト分類システムであるRheFrameDetectを開発した。
- 参考スコア(独自算出の注目度): 0.4721069729610891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rhetorical Frames in AI can be thought of as expressions that describe AI
development as a competition between two or more actors, such as governments or
companies. Examples of such Frames include robotic arms race, AI rivalry,
technological supremacy, cyberwarfare dominance and 5G race. Detection of
Rhetorical Frames from open sources can help us track the attitudes of
governments or companies towards AI, specifically whether attitudes are
becoming more cooperative or competitive over time. Given the rapidly
increasing volumes of open sources (online news media, twitter, blogs), it is
difficult for subject matter experts to identify Rhetorical Frames in (near)
real-time. Moreover, these sources are in general unstructured (noisy) and
therefore, detecting Frames from these sources will require state-of-the-art
text classification techniques. In this paper, we develop RheFrameDetect, a
text classification system for (near) real-time capture of Rhetorical Frames
from open sources. Given an input document, RheFrameDetect employs text
classification techniques at multiple levels (document level and paragraph
level) to identify all occurrences of Frames used in the discussion of AI. We
performed extensive evaluation of the text classification techniques used in
RheFrameDetect against human annotated Frames from multiple news sources. To
further demonstrate the effectiveness of RheFrameDetect, we show multiple case
studies depicting the Frames identified by RheFrameDetect compared against
human annotated Frames.
- Abstract(参考訳): AIにおける修辞フレームは、AI開発を政府や企業のような2つ以上のアクター間の競争として記述する表現として考えることができる。
そのようなフレームの例としては、ロボットアームレース、AI競合、技術優位、サイバーウォーフェア支配、5Gレースがある。
オープンソースからレトリックフレームを検出することは、政府や企業のAIに対する態度を追跡するのに役立つ。
急速に増加するオープンソース(オンラインニュースメディア、twitter、ブログ)を考えると、主題の専門家が(ほぼ)リアルタイムに修辞的なフレームを識別することは困難である。
さらに、これらのソースは一般に非構造化(ノイズ)であるため、これらのソースからフレームを検出するには最先端のテキスト分類技術が必要である。
本稿では,オープンソースからの修辞フレームを(ほぼ)リアルタイムに捉えるためのテキスト分類システムである rheframedetect を開発した。
入力ドキュメントが与えられた後、RheFrameDetectは複数のレベル(文書レベルと段落レベル)のテキスト分類技術を使用して、AIの議論で使用されるフレームのすべての発生を識別する。
複数のニュースソースからの注釈付きフレームに対するレオフレーム検出に用いたテキスト分類手法を広範囲に評価した。
RheFrameDetectの有効性をさらに実証するために、RheFrameDetectが認識したフレームを人間の注釈付きフレームと比較した複数のケーススタディを示す。
関連論文リスト
- Scene Graph Generation with Role-Playing Large Language Models [50.252588437973245]
オープン語彙シーングラフ生成(OVSGG)に対する現在のアプローチは、CLIPのような視覚言語モデルを使用している。
シーン固有の記述に基づくOVSGGフレームワークであるSDSGGを提案する。
対象と対象の複雑な相互作用を捉えるために,相互視覚アダプタと呼ばれる軽量モジュールを提案する。
論文 参考訳(メタデータ) (2024-10-20T11:40:31Z) - RIGID: Recurrent GAN Inversion and Editing of Real Face Videos [73.97520691413006]
GANのインバージョンは、実画像に強力な編集可能性を適用するのに不可欠である。
既存のビデオフレームを個別に反転させる手法は、時間の経過とともに望ましくない一貫性のない結果をもたらすことが多い。
我々は、textbfRecurrent vtextbfIdeo textbfGAN textbfInversion and etextbfDiting (RIGID) という統合されたリカレントフレームワークを提案する。
本フレームワークは,入力フレーム間の固有コヒーレンスをエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2023-08-11T12:17:24Z) - Query Your Model with Definitions in FrameNet: An Effective Method for
Frame Semantic Role Labeling [43.58108941071302]
Frame Semantic Role Labeling (FSRL)は、引数を特定し、FrameNetで定義されたフレームロールにラベル付けする。
本稿では,これらの問題を緩和するために,FrameNet (AGED) で定義した ArGument Extractor というクエリベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T05:09:12Z) - A Double-Graph Based Framework for Frame Semantic Parsing [23.552054033442545]
フレーム意味解析は基本的なNLPタスクであり、フレーム識別、引数識別、ロール分類という3つのサブタスクから構成される。
これまでのほとんどの研究は、異なるサブタスクと議論の関係を無視し、オントロジ的なフレーム知識にはほとんど注意を払わない傾向にある。
本稿では、二重グラフ(KID)を用いた知識誘導型セマンティックPKを提案する。
実験の結果、KIDは2つのFrameNetデータセット上で1.7F1スコアで従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-06-18T09:39:38Z) - Two-stream Hierarchical Similarity Reasoning for Image-text Matching [66.43071159630006]
文脈情報を自動的に抽出する階層的類似性推論モジュールを提案する。
従来のアプローチでは、シングルストリームの類似性アライメントを学習することしか検討されていなかった。
イメージ・ツー・テキスト・レベルの類似性計算とテキスト・ツー・テキスト・レベルの類似性計算に画像・テキストマッチングを分解する2ストリームアーキテクチャを開発した。
論文 参考訳(メタデータ) (2022-03-10T12:56:10Z) - Constructing Phrase-level Semantic Labels to Form Multi-Grained
Supervision for Image-Text Retrieval [48.20798265640068]
テキスト中のミスマッチしたユニットの識別をより良くするためのフレーズレベルの監視を導入する。
一致した文のテキストシーングラフを構築し,フレーズレベルのラベルとしてエンティティとトリプルを抽出する。
トレーニングでは,グローバルな視点とローカルな視点の両方から,マルチスケールのマッチング損失を提案する。
論文 参考訳(メタデータ) (2021-09-12T14:21:15Z) - Controlled Neural Sentence-Level Reframing of News Articles [40.802766338425926]
我々は,文脈に整合性を保ちながら,ニュース記事中の文を計算的に再構成する方法を研究する。
本稿では,フレーム付き言語保存事前学習,名義学習,対人学習の3つの戦略を提案する。
結果から,適切なフレームのテキストを生成することは,トレードオフよりも有効であることが示唆された。
論文 参考訳(メタデータ) (2021-09-10T15:57:24Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - Emotion recognition by fusing time synchronous and time asynchronous
representations [17.26466867595571]
マルチモーダル感情認識のための新しい2分岐ニューラルネットワークモデル構造を提案する。
時間同期ブランチ(TSB)と時間非同期ブランチ(TAB)で構成される。
2分岐構造は、すべての一般的なテスト設定を伴う4方向の分類において、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-10-27T07:14:31Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。