前言 自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它是一門融語(yǔ)言學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)于一體的科學(xué)。自然語(yǔ)言處理并不是一般地研究自然語(yǔ)言,而在于研制能有效地實(shí)現(xiàn)自然語(yǔ)言通信的計(jì)算機(jī)系統(tǒng),特別是其中的軟件系統(tǒng)。自然語(yǔ)言處理主要應(yīng)用于機(jī)器翻譯、輿情監(jiān)測(cè)、自動(dòng)摘要、觀點(diǎn)提取、文本分類、問(wèn)題回答、文本語(yǔ)義對(duì)比、語(yǔ)音識(shí)別、中文OCR等領(lǐng)域。 或許你已經(jīng)看過(guò)了很多的深度學(xué)習(xí),人工智能,自然語(yǔ)言處理知識(shí),但是依舊實(shí)戰(zhàn)能力欠缺。 有三AI今年大力推出各種經(jīng)典任務(wù)的項(xiàng)目實(shí)戰(zhàn)課程,所謂項(xiàng)目課,就是以簡(jiǎn)單的原理回顧+詳細(xì)的項(xiàng)目實(shí)戰(zhàn)的模式,針對(duì)具體的某一個(gè)主題,進(jìn)行代碼級(jí)的實(shí)戰(zhàn)講解。 本次我們給大家介紹現(xiàn)在已經(jīng)上線的自然語(yǔ)言處理方向的項(xiàng)目實(shí)戰(zhàn)課程! 基于TextCNN的文本分類實(shí)戰(zhàn) 文本分類是自然語(yǔ)言處理領(lǐng)域最活躍的研究方向之一,目前文本分類在工業(yè)界的應(yīng)用場(chǎng)景非常普遍,從新聞的分類、商品評(píng)論信息的情感分類到微博信息打標(biāo)簽輔助推薦系統(tǒng),了解文本分類技術(shù)是NLP初學(xué)者比較好的切入點(diǎn),較簡(jiǎn)單且應(yīng)用場(chǎng)景高頻。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景和解決方案的設(shè)計(jì)。 ![]() ![]() 第2部分:模型選擇,包括機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)模型比較,模型搭建部分的代碼講解。 ![]() ![]() ![]() 第3部分:數(shù)據(jù)讀取與預(yù)處理(代碼),包括數(shù)據(jù)讀取和數(shù)據(jù)預(yù)處理兩部分內(nèi)容,以及相關(guān)的代碼講解。 ![]() ![]() ![]() 第4部分:模型訓(xùn)練與推理(代碼),包括模型訓(xùn)練和模型測(cè)評(píng)兩部分內(nèi)容,還有相關(guān)的代碼講解。 ![]() ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了TextCNN 的優(yōu)缺點(diǎn)以及模型的改進(jìn)。 ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于TextRank的文本摘要抽取實(shí)戰(zhàn) 自動(dòng)文本摘要的技術(shù)主要分為抽取式和生成式,本實(shí)戰(zhàn)項(xiàng)目課程將介紹抽取式文本摘要的經(jīng)典模型 — TextRank。TextRank 創(chuàng)造性的將 PageRank (網(wǎng)頁(yè)排序算法)這一圖算法的思想運(yùn)用于文本中。通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 TextRank 在新聞分類實(shí)戰(zhàn)中的運(yùn)用,并掌握文本摘要的發(fā)展和技術(shù)要點(diǎn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型選擇與搭建,包括有監(jiān)督抽取式文本摘要方案、無(wú)監(jiān)督抽取式文本摘要方案、TextRank模型搭建部分的代碼講解。 ![]() ![]() ![]() 第3部分:數(shù)據(jù)讀取與預(yù)處理(代碼),包括數(shù)據(jù)集選擇和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容,以及相關(guān)的代碼講解。 ![]() ![]() ![]() 第4部分:模型訓(xùn)練與推理(代碼),包括模型訓(xùn)練和模型評(píng)測(cè)兩部分內(nèi)容,還有相關(guān)的代碼講解。 ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了TextRank的優(yōu)缺點(diǎn)以及模型的優(yōu)化方向。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于HuggingFace的Bert情感分析實(shí)戰(zhàn) 情感分析是 NLP 中的一個(gè)重要領(lǐng)域,在輔助公共政策、企業(yè)決策、產(chǎn)品優(yōu)化等都有應(yīng)用。BERT 是 NLP 歷史上一個(gè)有 “里程碑”意義的模型,通過(guò)預(yù)訓(xùn)練-微調(diào)的方式,使其可以適用于多種下游任務(wù),包括情感分析。本實(shí)戰(zhàn)項(xiàng)目課程將介紹情感分析發(fā)展歷程,問(wèn)題建模分析,以及 BERT 實(shí)現(xiàn)情感分析任務(wù)代碼講解,學(xué)生通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程可以把握情感分析的發(fā)展及落地實(shí)現(xiàn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型原理說(shuō)明,包括BERT的基本介紹、BERT的輸入、BERT預(yù)訓(xùn)練任務(wù)、BERT微調(diào)。 ![]() ![]() ![]() 第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。 ![]() ![]() 第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。 ![]() ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了BERT的優(yōu)缺點(diǎn)以及前沿進(jìn)展。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于BiLSTM的命名實(shí)體識(shí)別實(shí)戰(zhàn) 命名實(shí)體識(shí)別(Named Entity Recognition,簡(jiǎn)稱NER)是指從文本中識(shí)別出具有特定意義的實(shí)體,如人名、地名、機(jī)構(gòu)名、專有名詞等。NER是 NLP 中的重要的基礎(chǔ)工具,很大程度上輔助了 NLP 走向?qū)嵱妙I(lǐng)域。通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 NER 基于 BiLSTM + CRF 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握 NER 的發(fā)展和技術(shù)要點(diǎn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型原理說(shuō)明,包括BiLSTM+CRF的基本介紹、BiLSTM+CRF的輸入等內(nèi)容。 ![]() ![]() 第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。 ![]() ![]() 第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。 ![]() ![]() ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了BiLSTM+CRF的優(yōu)缺點(diǎn)以及前沿進(jìn)展。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于Seq2Seq與Attention的 機(jī)器翻譯實(shí)戰(zhàn) 機(jī)器翻譯(machine translation)是利用計(jì)算機(jī)實(shí)現(xiàn)不同語(yǔ)言之間的自動(dòng)轉(zhuǎn)換,是自然語(yǔ)言處理重要研究方向,也是目前互聯(lián)網(wǎng)常用服務(wù)之一。對(duì)于機(jī)器翻譯的研究由來(lái)已久,機(jī)器翻譯走過(guò)了基于規(guī)則、基于實(shí)例、基于統(tǒng)計(jì)的模式,如今在神經(jīng)網(wǎng)絡(luò)的加持下,迸發(fā)出新的活力。機(jī)器翻譯有很多應(yīng)用場(chǎng)景,如翻譯中心、即時(shí)通訊、視頻字幕等。通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握機(jī)器翻譯基于 seq2seq attention 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握機(jī)器翻譯的發(fā)展和技術(shù)要點(diǎn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型原理說(shuō)明,包括Seq2Seq and Attention的基本內(nèi)容介紹。 ![]() ![]() ![]() ![]() 第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。 ![]() ![]() 第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。 ![]() ![]() ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了Seq2Seq and Attention的優(yōu)缺點(diǎn)以及前沿進(jìn)展。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于transformer的關(guān)系抽取實(shí)戰(zhàn) 關(guān)系抽取 (relation extraction) 是分析實(shí)體之間關(guān)聯(lián)的一種自然語(yǔ)言處理技術(shù)。關(guān)系抽取可以用于自動(dòng)構(gòu)建知識(shí)庫(kù),理解和分析用戶查詢意圖等,因此擁有十分廣闊的應(yīng)用前景。通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握關(guān)系抽取基于 transformer 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握關(guān)系抽取的發(fā)展和技術(shù)要點(diǎn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型原理說(shuō)明,包括總體內(nèi)容介紹,Encoder,Attention,Decoder。 ![]() ![]() 第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。 ![]() ![]() 第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。 ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了 transformer 的優(yōu)缺點(diǎn)以及前沿進(jìn)展。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 基于LCF-ATEPC的 屬性級(jí)情感分析實(shí)戰(zhàn) 屬性級(jí)情感分析(Aspect-based Sentiment Analysis, ABSA)是一類細(xì)粒度情感分析任務(wù),常用于評(píng)論分析中,幫助商家深入理解用戶偏好,同時(shí)也在搜索、個(gè)性化推薦、商業(yè)智能、內(nèi)容安全等十多個(gè)業(yè)務(wù)場(chǎng)景中有著廣泛的應(yīng)用。通過(guò)學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 ABSA 基于 LCF-ATEPC 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握 ABSA 的發(fā)展和技術(shù)要點(diǎn)。 下面我們來(lái)簡(jiǎn)單看一下各部分的內(nèi)容: 第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問(wèn)題建模,本部分內(nèi)容可以免費(fèi)收聽(tīng)。 ![]() ![]() 第2部分:模型原理說(shuō)明,包括LCF-ATEPC內(nèi)容介紹,Bert,Multi-head Self-Attention,情感級(jí)性分類等。 ![]() ![]() ![]() ![]() 第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。 ![]() ![]() 第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。 ![]() ![]() ![]() ![]() 第5部分:總結(jié)與展望,總結(jié)了一些新的思路以及發(fā)展。 ![]() ![]() 內(nèi)容試聽(tīng)以及訂閱請(qǐng)直接掃如下二維碼: 講師介紹 NLP課程講師為Monica,某互聯(lián)網(wǎng)大廠高級(jí)算法工程師、美名校本碩數(shù)學(xué)專業(yè),資深A(yù)I課程講師。 ![]() 講師的介紹請(qǐng)查看:【雜談】今年誰(shuí)將挑起有三AI自然語(yǔ)言處理內(nèi)容的大梁?新晉NLP講師Monica有話要說(shuō) 小鵝通學(xué)習(xí)平臺(tái) 一直以來(lái),有三AI所有的直播與錄播視頻課程都在小鵝通平臺(tái),小鵝通是一個(gè)很成熟的知識(shí)付費(fèi)平臺(tái),我們有唯一的小鵝通知識(shí)店鋪賬號(hào)。 ![]() 由于有很多用戶之前不熟悉小鵝通,首先我們給大家介紹一下登錄方式和課程觀看方式。 1 小鵝通目前有多種登錄與課程學(xué)習(xí)方式,建議大家使用以下兩種: |
|