佳木斯湛栽影视文化发展公司

主頁(yè) > 知識(shí)庫(kù) > 理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介

理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介

熱門(mén)標(biāo)簽:語(yǔ)音系統(tǒng) 客戶(hù)服務(wù) 電話(huà)運(yùn)營(yíng)中心 Win7旗艦版 企業(yè)做大做強(qiáng) 呼叫中心市場(chǎng)需求 硅谷的囚徒呼叫中心 百度AI接口

機(jī)器學(xué)習(xí)

在吳恩達(dá)老師的課程中,有過(guò)對(duì)機(jī)器學(xué)習(xí)的定義:

ML:P T E>

P即performance,T即Task,E即Experience,機(jī)器學(xué)習(xí)是對(duì)一個(gè)Task,根據(jù)Experience,去提升Performance;

在機(jī)器學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)的地位越來(lái)越重要,實(shí)踐發(fā)現(xiàn),非線(xiàn)性的激活函數(shù)有助于神經(jīng)網(wǎng)絡(luò)擬合分布,效果明顯優(yōu)于線(xiàn)性分類(lèi)器:

y=Wx+b

常用激活函數(shù)有ReLU,sigmoid,tanh;

sigmoid將值映射到(0,1):

tanh會(huì)將輸入映射到(-1,1)區(qū)間:

#激活函數(shù)tanh
%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
def tanh(x):
    return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
X=np.linspace(-5,5,100)
plt.figure(figsize=(8,6))
ax=plt.gca()#get current axis:獲取當(dāng)前坐標(biāo)系
#將該坐標(biāo)系的右邊緣和上邊緣設(shè)為透明
ax.spines['right'].set_color('none')
ax.spines['top'].set_color('none')
#設(shè)置bottom是x軸
ax.xaxis.set_ticks_position('bottom')
ax.spines['bottom'].set_position(('data',0))
#設(shè)置left為y軸
ax.yaxis.set_ticks_position('left')
ax.spines['left'].set_position(('data',0))
ax.plot(X,tanh(X),color='blue',linewidth=1.0,linestyle="-")
plt.show()

開(kāi)源框架

當(dāng)神經(jīng)網(wǎng)絡(luò)層數(shù)加深,可以加強(qiáng)捕捉分布的效果,可以簡(jiǎn)單認(rèn)為深度學(xué)習(xí)指深層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí);

當(dāng)前有兩大主流的深度學(xué)習(xí)框架:Pytorch和Tensorflow;

Pytorch支持動(dòng)態(tài)計(jì)算圖,使用起來(lái)更接近Python;

Tensorflow是靜態(tài)計(jì)算圖,使用起來(lái)就像一門(mén)新語(yǔ)言,據(jù)說(shuō)簡(jiǎn)單易用的keras已經(jīng)無(wú)人維護(hù),合并到tensorflow;

一個(gè)深度學(xué)習(xí)項(xiàng)目的運(yùn)行流程一般是:

v

深度學(xué)習(xí)計(jì)算重復(fù)且體量巨大,所以需要將模型部署到GPU上,GPU的設(shè)計(jì)很適合加速深度學(xué)習(xí)計(jì)算,為了便于在GPU上開(kāi)展深度學(xué)習(xí)實(shí)驗(yàn),人們開(kāi)發(fā)了CUDA架構(gòu),現(xiàn)在大部分DL模型都是基于CUDA加速的

關(guān)于CUDA

1.什么是CUDA?

CUDA(ComputeUnified Device Architecture),是顯卡廠(chǎng)商N(yùn)VIDIA推出的運(yùn)算平臺(tái)。 CUDA是一種由NVIDIA推出的通用并行計(jì)算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計(jì)算問(wèn)題。

2.什么是CUDNN?

NVIDIA cuDNN是用于深度神經(jīng)網(wǎng)絡(luò)的GPU加速庫(kù)。它強(qiáng)調(diào)性能、易用性和低內(nèi)存開(kāi)銷(xiāo)。NVIDIA cuDNN可以集成到更高級(jí)別的機(jī)器學(xué)習(xí)框架中。

方向概覽

當(dāng)前計(jì)算機(jī)視覺(jué)的發(fā)展相對(duì)于自然語(yǔ)言處理更加成熟,NLP的訓(xùn)練比CV更耗費(fèi)資源,CV模型相對(duì)較??;

在CV方向:

1.圖像分類(lèi)(ResNet,DenseNet)

  1. 目標(biāo)檢測(cè)ObjectDetection
  2. 風(fēng)格遷移StyleTransfer
  3. CycleGAN:比如圖像中馬到斑馬,也可以從斑馬返回馬
  4. ImageCaptioning:從圖像生成描述文本,一般用CNN獲得feature,再輸入RNN獲得文本

2.在NLP方向

  1. 情感分析:分類(lèi)影評(píng)數(shù)據(jù)
  2. QuestionAnswering:一段問(wèn)題->給出答案
  3. Translation:可以用OpenNMT-py,OpenNMT-py是開(kāi)源的seq->seq模型
  4. ChatBot聊天機(jī)器人,基于QuestionAnswering,目前剛起步

另外還有強(qiáng)化學(xué)習(xí)Deep Reinforcement Learning,從簡(jiǎn)單的打磚塊游戲到著名的阿爾法Go;

以及預(yù)訓(xùn)練語(yǔ)言模型:給一段話(huà),讓機(jī)器繼續(xù)說(shuō)下去,比如BERT,GPT2;

遷移學(xué)習(xí)

在CV中,NN的低層可以提取位置信息(邊,角等精細(xì)信息),高層提取抽象信息,所以低層的網(wǎng)絡(luò)可以反復(fù)使用,更改高層再訓(xùn)練以適用其他任務(wù)

到此這篇關(guān)于深度學(xué)習(xí)簡(jiǎn)介的文章就結(jié)束了,以后還會(huì)不斷更新深度學(xué)習(xí)的文章,更多相關(guān)深度學(xué)習(xí)文章請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 13個(gè)最常用的Python深度學(xué)習(xí)庫(kù)介紹
  • python glom模塊的使用簡(jiǎn)介
  • Python 的lru_cache裝飾器使用簡(jiǎn)介
  • 深度學(xué)習(xí)詳解之初試機(jī)器學(xué)習(xí)

標(biāo)簽:海南 山西 濟(jì)南 長(zhǎng)沙 山西 崇左 安康 喀什

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話(huà)咨詢(xún)

    • 400-1100-266
    敦煌市| 临夏县| 靖江市| 理塘县| 洛扎县| 宜宾市| 荆州市| 古丈县| 博湖县| 甘南县| 中方县| 河东区| 佛山市| 潞西市| 江华| 礼泉县| 徐汇区| 防城港市| 沅江市| 平塘县| 江华| 克拉玛依市| 河曲县| 东平县| 颍上县| 靖安县| 晋中市| 嵊州市| 柏乡县| 会宁县| 阿图什市| 桑植县| 通化市| 德昌县| 永和县| 临沧市| 木兰县| 峨眉山市| 综艺| 开原市| 蒙阴县|