日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

模型說明

文本關系抽取-模型說明。

在文本關系抽取中,我們提供了多種模型進行選擇。如果您不知道選哪個,可以選擇“關系抽取PCNN”進行嘗試,兼顧了運行效率和最終結果。以下是模型的說明,您可以根據自己的具體場景,選擇一個更適合的模型。

  • 關系抽取PCNN

    • 基于PCNN (Piecewise Convolutional Neural Networks) 分類模型,加入noise converter抗噪模塊進行關系分類模型訓練,有一定的抗噪能力。相對于基于BERT而言,訓練和預測都更快,適用于對效果和訓練時間/預測時間要求比較均衡的主要內容是中文的場景。

  • 關系抽取Bert

    • 基于BERT從大量無標注語料進行預訓練的模型,加入融合實體對信息的模塊進行關系分類模型訓練。適用于標注數據比較干凈,對效果要求較高,對訓練時間/預測時間要求不是很高的主要內容是中文的場景。

  • 關系抽取BertNoise

    • 基于BERT從大量無標注語料進行預訓練的模型,加入融合實體對信息的模塊以及抗噪模塊進行關系分類模型訓練。適用于標注數據不是很干凈(帶有一些標錯或者噪聲數據),對效果要求較高,對訓練時間/預測時間要求不是很高的主要內容是中文的場景。

  • 關系抽取StrcutBERT-split

    • 基于達摩院自研alicemind深度語言模型體系的StructBERT模型,采用實體抽取-關系分類兩階段獨立訓練策略,耗時較長。

  • 關系抽取StrcutBERT-cascade【推薦優先試用】

    • 基于達摩院自研alicemind深度語言模型體系的StructBERT模型,采用實體關系聯合抽取策略,耗時更短,綜合性能更好,適用于實體標注比較完備的數據。