佳木斯湛栽影视文化发展公司

主頁(yè) > 知識(shí)庫(kù)2 > 問答機(jī)器人 防封號(hào)(百度問答機(jī)器人)

問答機(jī)器人 防封號(hào)(百度問答機(jī)器人)

熱門標(biāo)簽:南昌ai電銷機(jī)器人官網(wǎng) 四川重慶企業(yè)申請(qǐng)400電話號(hào)碼 淮安電銷外呼系統(tǒng)穩(wěn)定嗎 400電話申請(qǐng)需要提供什么 福建語音外呼系統(tǒng)代理商 螳螂外呼系統(tǒng)客服電話 免費(fèi)地圖標(biāo)注位置 科大訊飛電銷機(jī)器人官網(wǎng) 電銷機(jī)器人會(huì)取代銷售嗎

本文目錄一覽:

1、棉花糖問答是什么軟件 2、騰訊算法高級(jí)研究員陳松堅(jiān):智能問答技術(shù)及其應(yīng)用 3、機(jī)器人交互問答儀表問題有哪些 棉花糖問答是什么軟件

棉花糖問答是一款智能問答機(jī)器人軟件,用戶可以輸入自己的問題,棉花糖問答會(huì)用相應(yīng)的知識(shí)庫(kù),結(jié)合機(jī)器學(xué)習(xí)算法,提供準(zhǔn)確的回答。棉花糖問答的算法能夠管理許多細(xì)微的信息,從而幫助用戶節(jié)省時(shí)間、提高工作效率。

騰訊算法高級(jí)研究員陳松堅(jiān):智能問答技術(shù)及其應(yīng)用

隨著人工智能的飛速發(fā)展以及廣泛落地應(yīng)用,越來越多的設(shè)備將會(huì)被植入智能問答技術(shù),人機(jī)交互場(chǎng)景隨處可見,智能問答在未來將會(huì)成為一個(gè)非常重要的入口。

騰訊小知憑借著業(yè)界領(lǐng)先的智能AI引擎算法和海量大數(shù)據(jù)倉(cāng)庫(kù),已將智能問答技術(shù)落地實(shí)施,并且經(jīng)過大量的業(yè)務(wù)考驗(yàn)和優(yōu)化,知識(shí)點(diǎn)匹配度和準(zhǔn)確率都已達(dá)到90%以上,在2018 年 GITC 全球互聯(lián)網(wǎng)技術(shù)大會(huì)上,騰訊小知榮獲年度互聯(lián)網(wǎng)最具價(jià)值產(chǎn)品獎(jiǎng)。

騰訊小知算法負(fù)責(zé)人陳松堅(jiān)也在會(huì)場(chǎng)發(fā)表了關(guān)于智能問答技術(shù)原理及其在To B場(chǎng)景下的應(yīng)用的專題演講,從自己的角度為我們展現(xiàn)智能問答技術(shù)的最新成果。

他首先從智能問答是什么,為什么和怎么做的三個(gè)問題出發(fā),闡明了他對(duì)當(dāng)前智能問答技術(shù)的定位和價(jià)值,首先,現(xiàn)階段的智能問答是信息檢索技術(shù)的升級(jí),是量變而未達(dá)到質(zhì)變。但是無論在To B還是To C的場(chǎng)景下,當(dāng)前的技術(shù)都能夠切實(shí)解決一些用戶的痛點(diǎn),提升用戶體驗(yàn),是亟待推進(jìn)和充滿想象的方向。

在回答怎么做這個(gè)問題時(shí),他詳細(xì)介紹了幾種不同的問答機(jī)器人的實(shí)現(xiàn)路徑,包括單輪問答機(jī)器人,多輪問答機(jī)器人及閱讀理解機(jī)器人。其中重點(diǎn)闡述了單輪問答機(jī)器人的實(shí)現(xiàn)原理,包括字面匹配,詞向量匹配,深度語義匹配,遷移學(xué)習(xí)等技術(shù)。

此后他還分享了小知團(tuán)隊(duì)將上述技術(shù)產(chǎn)品化的經(jīng)驗(yàn),包括智能客服機(jī)器人和電話機(jī)器人兩大塊,主要分享了當(dāng)前產(chǎn)品的形態(tài),亮點(diǎn)和實(shí)際項(xiàng)目中取得的一些成果。

最后,他簡(jiǎn)單總結(jié)了小知目前完成的工作以及就智能問答的發(fā)展提出了自己的幾點(diǎn)看法。

--------------------------------------------------------------

以下是演講稿全文:

各位下午好,很高興今天能在這里給大家做分享報(bào)告。先介紹一下,我們騰訊小知是致力于為政府和各行業(yè)提供一攬子智能問答解決方案的團(tuán)隊(duì),目前已經(jīng)落地的包括基于文本的智能客服機(jī)器人和基于語音的電話機(jī)器人等。

在大多數(shù)人的認(rèn)知里,智能問答很可能是以上的3個(gè)印象,2011年打敗了人類取得問答競(jìng)賽冠軍的waston;2017年被沙特授予公民身份的機(jī)器人sofia;更為大家熟知的鋼鐵俠中的機(jī)器人管家jarvis。在大家心目中,智能就意味著能夠像真人一樣交流。然而作為從業(yè)者,很遺憾地告訴大家,目前的技術(shù)還遠(yuǎn)沒有達(dá)到這個(gè)目標(biāo),我認(rèn)為本質(zhì)上目前的智能問答技術(shù)是對(duì)信息檢索技術(shù)的一次升級(jí),是量變而未到質(zhì)變。這個(gè)皇冠上的明珠還等待我們?nèi)フ ?/p>

既然問答技術(shù)還不成熟,那為什么還要投身到這個(gè)領(lǐng)域呢。我想從To B和To C兩個(gè)角度去回答。對(duì)企業(yè)來講,當(dāng)前的問答技術(shù)雖然無法解答復(fù)雜的咨詢,但是大部分的簡(jiǎn)單的頭部問題是可以比較好的解答的。從本輪AI大潮NLP賽道的幾名種子選手都從智能客服這個(gè)方向切入就可以看出企業(yè)是確實(shí)存在對(duì)智能問答的剛性需求。而對(duì)普通用戶來講,一方面siri等語音助手每天都在為用戶提供便捷的交互界面,另一方面像amazon echo這一類的智能家居產(chǎn)品也逐步進(jìn)入千家萬戶,成為物聯(lián)網(wǎng)生態(tài)的中心入口之一,這便是智能問答的價(jià)值所在。

那如何實(shí)現(xiàn)智能問答機(jī)器人呢?我們先來看最基本的單輪問答機(jī)器人的實(shí)現(xiàn)原理。

熟悉搜索引擎的朋友會(huì)發(fā)現(xiàn)這個(gè)架構(gòu)跟搜索引擎的很類似。單輪問答一般來說就是FAQ問答,是基于業(yè)務(wù)問答對(duì)組成的問答庫(kù)進(jìn)行檢索匹配。其中FAQ問題集包含多個(gè)相似問法供用戶問題去匹配。預(yù)處理階段一般會(huì)進(jìn)行文本糾錯(cuò),標(biāo)準(zhǔn)化和底層NLP特征提取;召回階段會(huì)在倒排索引中召回若干個(gè)候選問題(粗排),而最后的匹配階段會(huì)基于各種模型進(jìn)行匹配打分并返回得分最高的結(jié)果(精排)。匹配階段還會(huì)引入其他模塊,如知識(shí)圖譜和拒識(shí)模型,目的是輔助提升匹配的最終準(zhǔn)確率。

retrieval中的匹配可以看做是naive solution,詞袋+VSM, 篩選候選夠用了,但是精排需要更精致的策略,第一,要利用監(jiān)督信息做擬合,我們構(gòu)建基于問題對(duì)的訓(xùn)練語料,擬合是否匹配這個(gè)二分類目標(biāo)。第二,特征上拋棄稀疏的詞袋模型,而是構(gòu)造各種相似度來做base scorer,然后利用非線性的抗噪能力強(qiáng)的xgboost來做融合,比如我們用到詞bigram, 字bigram, 核心詞,名詞等特征集合的相似度。這種方法的優(yōu)缺點(diǎn)是一體的,由于模型只學(xué)習(xí)字面相似的特征,因此不受領(lǐng)域影響,通用性強(qiáng),適合用在冷啟動(dòng)階段;但也因?yàn)橹豢紤]字面相似,無法處理更深層的語義匹配。

那如何度量語義的相似呢。詞向量技術(shù)的興起是語義匹配的前提,所謂詞向量,是將孤立的傳統(tǒng)的token表示映射到相互關(guān)聯(lián)的向量空間中,這種關(guān)聯(lián)性,或者說是相似性,是通過詞語的上下文的來描述的。也就是說,上下文越相似的詞語,他們的語義就越相似,詞向量的歐式距離就越近。這是很容易理解的,更妙的是,通過對(duì)向量進(jìn)行簡(jiǎn)單加減運(yùn)算,能夠呈現(xiàn)出概念的關(guān)系,比如king-man+woman的結(jié)果非常接近于queen, 因此說明詞向量能夠一定程度刻畫語義。那對(duì)句子如何做向量表示呢?一個(gè)簡(jiǎn)單的想法是直接求和平均,WMD是另一個(gè)比較有意思且有效的做法,他將計(jì)算句子到句子的相似度建模成一個(gè)運(yùn)輸?shù)膯栴},把句子p的各個(gè)詞,運(yùn)輸?shù)絨的各個(gè)詞上,也可以說是變換;運(yùn)輸成本是詞向量的cosine相似度,而要運(yùn)輸?shù)氖歉鱾€(gè)詞在句子中的權(quán)重,用線性規(guī)劃求解一個(gè)最優(yōu)解,即為p到q的距離。另外還有個(gè)有效的方法是SIF,思路是做詞向量加權(quán)求和,但是突顯出句子中非通用的部分,即權(quán)重用詞頻倒數(shù)來計(jì)算權(quán)重,實(shí)驗(yàn)效果也很不錯(cuò)。

上面的方法有一個(gè)問題就是沒有利用有監(jiān)督信息,所以效果有明顯的天花板。下面介紹這個(gè)工作是基于深層網(wǎng)絡(luò)做有監(jiān)督學(xué)習(xí)的匹配的,做法也比較簡(jiǎn)單,首先把句子文本用one-hot編碼,假如詞典大小是500K,那編碼完長(zhǎng)度就是500K維,其實(shí)等于是詞袋模型,然后輸入到一個(gè)多層的神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí),最終得到一個(gè)128維的向量作為句子的語義表示,然后用cosine計(jì)算兩個(gè)句子與文檔的相似度作為模型輸出。這個(gè)方法其實(shí)是將高維稀疏的token特征映射到低維語義空間,跟詞向量的思路很類似,只不過訓(xùn)練目標(biāo)不同,并且這里使用了深層網(wǎng)絡(luò)結(jié)構(gòu)。

但是CNN對(duì)上下文的處理能力依賴于窗口大小,遠(yuǎn)距離就沒辦法處理了,因此要考慮另一種網(wǎng)絡(luò)單元RNN,這種單元是專門為時(shí)序模型量身打造的,簡(jiǎn)單來說,每一時(shí)刻t上的隱藏狀態(tài),或者說第t個(gè)詞上的語義編碼,都由兩個(gè)輸入共同決定,即上一時(shí)刻的隱藏狀態(tài)和當(dāng)前時(shí)刻的原始輸入,而為了解決遠(yuǎn)距離傳遞導(dǎo)致的梯度消失和梯度爆炸等問題,RNN有一些變種結(jié)構(gòu)來應(yīng)對(duì),比如 LSTM和GRU等。

CNN和RNN都是對(duì)原始輸入進(jìn)行語義編碼的基本單元,編碼后的向量就可以接入多層感知機(jī)進(jìn)行相似度計(jì)算,如果是直接計(jì)算cosine相似度,那就是dssm的升級(jí)版,而更常見的做法是把兩個(gè)句子的編碼向量拼接在一起,再經(jīng)過一個(gè)多層感知機(jī)計(jì)算相似度,而這種方法統(tǒng)稱為表達(dá)式建模;

另一種方案考慮到兩個(gè)句子之間的交互信息對(duì)學(xué)習(xí)他們是否匹配顯然更為重要,這一類方案被稱為交互式建模,右邊是一個(gè)典型的例子,他最大的不同是首先對(duì)兩個(gè)句子的所有窗口組合進(jìn)行拼接和卷積,得到交互信息。然后再進(jìn)行多次卷積和池化得到表示。其他的交互方式還包括編碼之后,進(jìn)行交互操作,如作差,點(diǎn)乘等,還有計(jì)算attention表示,也是常見的交互方式。

下面介紹我們的方案,跟上面介紹的模型相比,我們的方案主要做了兩處改動(dòng),一個(gè)是使用了稠密連接的網(wǎng)絡(luò)結(jié)構(gòu),讓rnn層的輸入和輸出拼接在一起做為下一層的輸入,第二個(gè)是混合注意力機(jī)制,即在計(jì)算attention向量進(jìn)行交互式建模的基礎(chǔ)上,增加self-attention向量計(jì)算,然后把兩個(gè)attention向量經(jīng)過門機(jī)制進(jìn)行融合,這樣做一方面引入了問句間的交互信息,同時(shí)又增強(qiáng)了對(duì)自身的表達(dá)建模。

上面的模型是比較復(fù)雜的模型,參數(shù)量有5.8M。在實(shí)際中應(yīng)用中訓(xùn)練語料會(huì)嚴(yán)重不足,為了解決這個(gè)問題,我們引入了遷移學(xué)習(xí)的策略。首先第一種是多任務(wù)聯(lián)合學(xué)習(xí),比如在擬合兩個(gè)問句是否匹配的同時(shí),也對(duì)問句進(jìn)行分類預(yù)測(cè);另外還可以同時(shí)對(duì)匹配的問題對(duì)做seq2seq的翻譯模型訓(xùn)練。這兩個(gè)策略都證明能有效提升準(zhǔn)確率。

而另一個(gè)思路更加直觀,即引入其他領(lǐng)域的語料,所謂多語料遷移。Fine-tune即參數(shù)微調(diào)是其中一種做法,即先用通用語料訓(xùn)練網(wǎng)絡(luò),固定底層表達(dá)層的參數(shù),然后再使用領(lǐng)域語料調(diào)整上層參數(shù);另一種思路參考了對(duì)抗學(xué)習(xí)的思想,即引入一個(gè)新的任務(wù)“混淆分類器”去判別當(dāng)前樣本是來自源語料還是目標(biāo)語料,通過在損失函數(shù)中增加反向的混淆分類損失項(xiàng),讓混淆分類器盡可能地?zé)o法區(qū)分樣本的來源,從而保證共享了參數(shù)的表達(dá)網(wǎng)絡(luò)能夠?qū)W習(xí)到兩部分語料中共性的部分。

以上的介紹都是為了完成一個(gè)基本的單輪對(duì)話機(jī)器人,而實(shí)際應(yīng)用中,往往存在需要需要交互的場(chǎng)景,比如查詢社保余額,就需要用戶提供指定信息,如姓名,身份證號(hào),手機(jī)號(hào)等。這種是所謂任務(wù)導(dǎo)向型機(jī)器人,而另一種,基于知識(shí)圖譜的機(jī)器人也往往會(huì)涉及到多輪交互。這里簡(jiǎn)單介紹一下多輪對(duì)話機(jī)器人的架構(gòu),整體上是一個(gè)對(duì)話管理系統(tǒng),總的來說是管理會(huì)話狀態(tài),包含4個(gè)模塊,分別是輸入部分:自然語言理解模塊NLU,負(fù)責(zé)意圖識(shí)別和抽取槽位實(shí)體,比如這里匹配到了意圖是查詢社保余額,抽取到了社保號(hào)1234。得到的意圖和槽位值會(huì)送入到對(duì)話狀態(tài)追蹤模塊,DST,他負(fù)責(zé)會(huì)話狀態(tài)的更新,形式化來說是一個(gè)函數(shù),輸入是當(dāng)前狀態(tài)s和當(dāng)前的query經(jīng)過NLU處理過得到的意圖和槽位值q, 輸出新的狀態(tài)s‘,下一步是把s’送入DPL,對(duì)話策略模塊,這個(gè)模塊是根據(jù)新的狀態(tài)s‘輸出行動(dòng)a,通常這個(gè)決策選擇會(huì)依賴于一個(gè)外部數(shù)據(jù)庫(kù)或知識(shí)圖譜,最后,由輸出部分,自然語言生成模塊NLG負(fù)責(zé)將行動(dòng)轉(zhuǎn)換為自然語言文本,返回給用戶。

前面提到的單輪FAQ機(jī)器人,有一個(gè)問題是問答準(zhǔn)確率依賴于問答庫(kù)的質(zhì)量,而問答庫(kù)的構(gòu)建耗時(shí)費(fèi)力,所以針對(duì)數(shù)據(jù)較大的非結(jié)構(gòu)化文檔,如果可以直接從中抽取答案,是非常理想的做法。比如斯坦佛大學(xué)開源的drQA,就是基于wikipedia的語料做的一個(gè)開放域上的問答機(jī)器人,我們來看看這種閱讀理解機(jī)器人的架構(gòu)示意,他也是基于檢索重排的思路,首先把可能的文段從語料庫(kù)中摘取出來,然后送入閱讀理解模型進(jìn)行答案定位,打分,排序和選擇得分最高的答案。閱讀理解模型與匹配模型是類似的,需要先對(duì)問題和候選文段進(jìn)行編碼表示,不同之處在于最終預(yù)測(cè)的目標(biāo)是答案的起始和結(jié)束位置。我所在的團(tuán)隊(duì)在去年,在閱讀理解的權(quán)威公開測(cè)評(píng)Squad v1中取得過第一的成績(jī),同時(shí)參加這個(gè)測(cè)評(píng)的包括了google, facebook, 微軟,阿里idst, 科大訊飛等國(guó)內(nèi)外同行。說明業(yè)界對(duì)這種技術(shù)還是非??粗氐?。

下面分享小知在把以上技術(shù)落地產(chǎn)品化的經(jīng)驗(yàn)。首先我們來看看小知的整體架構(gòu)圖,核心引擎有兩部分,一塊是上面重點(diǎn)闡述的深度語義匹配模型,另一塊是本次分享沒有展開的知識(shí)圖譜引擎,在此之上,我們構(gòu)建了FAQ機(jī)器人,多輪會(huì)話機(jī)器人(任務(wù)機(jī)器人),閑聊機(jī)器人等。以下是我們單輪和多輪機(jī)器人的示例。

在我們實(shí)際的落地項(xiàng)目中,得益于深度遷移模型的語義匹配能力和行業(yè)知識(shí)圖譜的的精準(zhǔn)匹配和輔助追問,小知機(jī)器人能夠做到95%左右的問答準(zhǔn)確率,并且節(jié)省了50%以上的服務(wù)人力,切實(shí)為政府和企業(yè)提升效率和降低成本。

在智能客服的基礎(chǔ)上,我們又打造了基于語音的電話機(jī)器人,力主融合智能客服,人工在線客服,工單系統(tǒng)和電話機(jī)器人,為客戶打造從售前售中售后的整體解決方案。

以下是電話機(jī)器人的整體架構(gòu)圖,核心是自然語言理解NLU模塊,負(fù)責(zé)識(shí)別用戶提問意圖

提取相關(guān)實(shí)體。根據(jù)NLU輸出的結(jié)果,內(nèi)置的對(duì)話管理引擎會(huì)進(jìn)行流程狀態(tài)流轉(zhuǎn)和跟蹤。

另外,ASR語音識(shí)別和TTS語音合成是不可或缺的重要服務(wù),這三個(gè)模塊相互協(xié)作,共同完成與用戶的交互。

最后對(duì)智能問答的未來發(fā)展提幾點(diǎn)我的看法。目前學(xué)術(shù)界比較公認(rèn)的一個(gè)方向是,需要更有機(jī)地結(jié)合模型和規(guī)則,而在問答領(lǐng)域,規(guī)則的一大組成部分就是知識(shí)圖譜,包括開放領(lǐng)域的知識(shí)圖譜和專業(yè)領(lǐng)域知識(shí)圖譜。而更進(jìn)一步地,我們需要研究帶有推理性質(zhì)的事理型知識(shí)圖譜去描述領(lǐng)域內(nèi)的規(guī)則和知識(shí),讓機(jī)器人能夠處理帶有復(fù)雜條件的問題,提供更智能的回復(fù)。在我看來,智能問答的一個(gè)突破口就在于解決以上三個(gè)問題。以上就是今天分享的內(nèi)容,謝謝大家。

主講人介紹:

陳松堅(jiān),騰訊數(shù)據(jù)平臺(tái)部算法高級(jí)研究員,有著8 年的 NLP 研發(fā)經(jīng)驗(yàn),2017 年加入騰訊 TEG 數(shù)據(jù)平臺(tái)部,負(fù)責(zé)智能客服產(chǎn)品騰訊小知的算法規(guī)劃和落地。負(fù)責(zé)過多個(gè)智能客服項(xiàng)目,對(duì)封閉領(lǐng)域的智能問答有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。

機(jī)器人交互問答儀表問題有哪些

您好,先從問答開始,問:你吃飯了嗎,回:吃過了,這就是問答的全部過程,如何通過計(jì)算機(jī)系統(tǒng)實(shí)現(xiàn)該問答過程?最直接的方式是在數(shù)據(jù)庫(kù)中放入“你吃飯了嗎”和其對(duì)應(yīng)的答案“吃過了”,通過數(shù)據(jù)匹配實(shí)現(xiàn)問答過程,這也是早起問答機(jī)器人的實(shí)現(xiàn)方式——關(guān)鍵字匹配。如果問題是“你吃了嗎”“你吃沒”“吃過了吧”,這種方式就顯現(xiàn)出了局限性。這就是“普通問答”,與其對(duì)應(yīng)的就是“智能問答”,智能的實(shí)現(xiàn)包含了很多的核心技術(shù),例如人工智能、自然語言處理、語義解析、機(jī)器學(xué)習(xí)等

關(guān)于問答機(jī)器人和百度問答機(jī)器人的介紹到此就結(jié)束了,不知道你從中找到你需要的信息了嗎 ?如果你還想了解更多這方面的信息,記得收藏關(guān)注本站。

標(biāo)簽:?jiǎn)柎饳C(jī)器人
標(biāo)簽:滄州 河南 長(zhǎng)沙 梅河口 蕪湖 安順 新鄉(xiāng) 淮南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《問答機(jī)器人 防封號(hào)(百度問答機(jī)器人)》,本文關(guān)鍵詞  問答機(jī)器人 防封號(hào)(百度問答機(jī)器人);如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《問答機(jī)器人 防封號(hào)(百度問答機(jī)器人)》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于問答機(jī)器人 防封號(hào)(百度問答機(jī)器人)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    宣恩县| 双柏县| 漾濞| 永顺县| 长寿区| 炎陵县| 个旧市| 芜湖县| 泗水县| 建瓯市| 葫芦岛市| 顺平县| 中卫市| 萍乡市| 本溪市| 辽宁省| 洛浦县| 永靖县| 昌图县| 中卫市| 乌苏市| 双江| 博湖县| 怀柔区| 远安县| 商城县| 浦北县| 天水市| 丹棱县| 罗江县| 龙海市| 新河县| 准格尔旗| 周至县| 察哈| 同仁县| 三原县| 阿瓦提县| 万源市| 确山县| 沈阳市|