哈工大人工智能與中文信息處理方向帶頭人,主要研究方向為自然語言處理和社會計算;國家“萬人計劃”科技創(chuàng)新領(lǐng)軍人才;中國計算機學(xué)會理事、中國中文信息學(xué)會常務(wù)理事,多次擔(dān)任國家863重點項目總體組專家、基金委會評專家;主持研制“語言技術(shù)平臺LTP”、“大詞林”等,被業(yè)界廣泛使用;曾獲國家科技進步二等獎、省科技進步一等獎、錢偉長中文信息處理科學(xué)技術(shù)一等獎等;2012-2017年NLP頂級會議論文數(shù),世界排名第...
然而,因大部分NLP任務(wù)的標(biāo)注成本極為高昂,尤其是句法和語義相關(guān)的任務(wù),構(gòu)建大規(guī)模標(biāo)注數(shù)據(jù)集尤為困難。? ? 相比較而言,大規(guī)模無標(biāo)注數(shù)據(jù)集相對易于構(gòu)建。為更好地利用海量無標(biāo)簽文本數(shù)據(jù),常規(guī)的做法是首先從這些數(shù)據(jù)中學(xué)到較好的文本表示,然后再將其用于其他任務(wù)。許多研究表明,在大規(guī)模無標(biāo)注語料中訓(xùn)練的預(yù)訓(xùn)練語言模型,可以使多方面NLP任務(wù)獲得顯著的性能提升。? ?...
Copyright ?2007-2022 ANTPEDIA, All Rights Reserved
京ICP備07018254號 京公網(wǎng)安備1101085018 電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證:京ICP證110310號