佳木斯湛栽影视文化发展公司

主頁 > 知識庫 > 深度學(xué)習(xí)小工程練習(xí)之tensorflow垃圾分類詳解

深度學(xué)習(xí)小工程練習(xí)之tensorflow垃圾分類詳解

熱門標(biāo)簽:硅谷的囚徒呼叫中心 Win7旗艦版 企業(yè)做大做強(qiáng) 客戶服務(wù) 語音系統(tǒng) 電話運(yùn)營中心 呼叫中心市場需求 百度AI接口

介紹

這是一個基于深度學(xué)習(xí)的垃圾分類小工程,用深度殘差網(wǎng)絡(luò)構(gòu)建

軟件架構(gòu)

  1. 使用深度殘差網(wǎng)絡(luò)resnet50作為基石,在后續(xù)添加需要的層以適應(yīng)不同的分類任務(wù)
  2. 模型的訓(xùn)練需要用生成器將數(shù)據(jù)集循環(huán)寫入內(nèi)存,同時圖像增強(qiáng)以泛化模型
  3. 使用不包含網(wǎng)絡(luò)輸出部分的resnet50權(quán)重文件進(jìn)行遷移學(xué)習(xí),只訓(xùn)練我們在5個stage后增加的層

安裝教程

  1. 需要的第三方庫主要有tensorflow1.x,keras,opencv,Pillow,scikit-learn,numpy
  2. 安裝方式很簡單,打開terminal,例如:pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple
  3. 數(shù)據(jù)集與權(quán)重文件比較大,所以沒有上傳
  4. 如果環(huán)境配置方面有問題或者需要數(shù)據(jù)集與模型權(quán)重文件,可以在評論區(qū)說明您的問題,我將遠(yuǎn)程幫助您

使用說明

  1. 文件夾theory記錄了我在本次深度學(xué)習(xí)中收獲的筆記,與模型訓(xùn)練的控制臺打印信息
  2. 遷移學(xué)習(xí)需要的初始權(quán)重與模型定義文件resnet50.py放在model
  3. 下訓(xùn)練運(yùn)行trainNet.py,訓(xùn)練結(jié)束會創(chuàng)建models文件夾,并將結(jié)果權(quán)重garclass.h5寫入該文件夾
  4. datagen文件夾下的genit.py用于進(jìn)行圖像預(yù)處理以及數(shù)據(jù)生成器接口
  5. 使用訓(xùn)練好的模型進(jìn)行垃圾分類,運(yùn)行Demo.py

結(jié)果演示

cans易拉罐

代碼解釋

在實際的模型中,我們只使用了resnet50的5個stage,后面的輸出部分需要我們自己定制,網(wǎng)絡(luò)的結(jié)構(gòu)圖如下:

stage5后我們的定制網(wǎng)絡(luò)如下:

"""定制resnet后面的層"""
def custom(input_size,num_classes,pretrain):
    # 引入初始化resnet50模型
    base_model = ResNet50(weights=pretrain,
                          include_top=False,
                          pooling=None,
                          input_shape=(input_size,input_size, 3),
                          classes=num_classes)
    #由于有預(yù)權(quán)重,前部分凍結(jié),后面進(jìn)行遷移學(xué)習(xí)
    for layer in base_model.layers:
        layer.trainable = False
    #添加后面的層
    x = base_model.output
    x = layers.GlobalAveragePooling2D(name='avg_pool')(x)
    x = layers.Dropout(0.5,name='dropout1')(x)
    #regularizers正則化層,正則化器允許在優(yōu)化過程中對層的參數(shù)或?qū)拥募せ钋闆r進(jìn)行懲罰
    #對損失函數(shù)進(jìn)行最小化的同時,也需要讓對參數(shù)添加限制,這個限制也就是正則化懲罰項,使用l2范數(shù)
    x = layers.Dense(512,activation='relu',kernel_regularizer= regularizers.l2(0.0001),name='fc2')(x)
    x = layers.BatchNormalization(name='bn_fc_01')(x)
    x = layers.Dropout(0.5,name='dropout2')(x)
    #40個分類
    x = layers.Dense(num_classes,activation='softmax')(x)
    model = Model(inputs=base_model.input,outputs=x)
    #模型編譯
    model.compile(optimizer="adam",loss = 'categorical_crossentropy',metrics=['accuracy'])
    return model

網(wǎng)絡(luò)的訓(xùn)練是遷移學(xué)習(xí)過程,使用已有的初始resnet50權(quán)重(5個stage已經(jīng)訓(xùn)練過,卷積層已經(jīng)能夠提取特征),我們只訓(xùn)練后面的全連接層部分,4個epoch后再對較后面的層進(jìn)行訓(xùn)練微調(diào)一下,獲得更高準(zhǔn)確率,訓(xùn)練過程如下:

class Net():
    def __init__(self,img_size,gar_num,data_dir,batch_size,pretrain):
        self.img_size=img_size
        self.gar_num=gar_num
        self.data_dir=data_dir
        self.batch_size=batch_size
        self.pretrain=pretrain
    def build_train(self):
        """遷移學(xué)習(xí)"""
        model = resnet.custom(self.img_size, self.gar_num, self.pretrain)
        model.summary()
        train_sequence, validation_sequence = genit.gendata(self.data_dir, self.batch_size, self.gar_num, self.img_size)
        epochs=4
        model.fit_generator(train_sequence,steps_per_epoch=len(train_sequence),epochs=epochs,verbose=1,validation_data=validation_sequence,
                                     max_queue_size=10,shuffle=True)
        #微調(diào),在實際工程中,激活函數(shù)也被算進(jìn)層里,所以總共181層,微調(diào)是為了重新訓(xùn)練部分卷積層,同時訓(xùn)練最后的全連接層
        layers=149
        learning_rate=1e-4
        for layer in model.layers[:layers]:
            layer.trainable = False
        for layer in model.layers[layers:]:
            layer.trainable = True
        Adam =adam(lr=learning_rate, decay=0.0005)
        model.compile(optimizer=Adam, loss='categorical_crossentropy', metrics=['accuracy'])
        model.fit_generator(train_sequence,steps_per_epoch=len(train_sequence),epochs=epochs * 2,verbose=1,
            callbacks=[
                callbacks.ModelCheckpoint('./models/garclass.h5',monitor='val_loss', save_best_only=True, mode='min'),
                callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.1,patience=10, mode='min'),
                callbacks.EarlyStopping(monitor='val_loss', patience=10),],
            validation_data=validation_sequence,max_queue_size=10,shuffle=True)
        print('finish train,look for garclass.h5')

訓(xùn)練結(jié)果如下:

 """

    loss: 0.7949 - acc: 0.9494 - val_loss: 0.9900 - val_acc: 0.8797

    訓(xùn)練用了9小時左右

 """

如果使用更好的顯卡,可以更快完成訓(xùn)練

最后

希望大家可以體驗到深度學(xué)習(xí)帶來的收獲,能和大家學(xué)習(xí)很開心,更多關(guān)于深度學(xué)習(xí)的資料請關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • 深度學(xué)習(xí)詳解之初試機(jī)器學(xué)習(xí)
  • 機(jī)器深度學(xué)習(xí)二分類電影的情感問題
  • 深度學(xué)習(xí)tensorflow基礎(chǔ)mnist
  • 吳恩達(dá)機(jī)器學(xué)習(xí)練習(xí):神經(jīng)網(wǎng)絡(luò)(反向傳播)

標(biāo)簽:海南 山西 濟(jì)南 崇左 安康 喀什 山西 長沙

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《深度學(xué)習(xí)小工程練習(xí)之tensorflow垃圾分類詳解》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266
    西贡区| 黔南| 太仆寺旗| 清新县| 双流县| 上思县| 论坛| 巴彦县| 资阳市| 清水县| 普洱| 阿勒泰市| 布尔津县| 清徐县| 松溪县| 吉隆县| 蕲春县| 垣曲县| 固始县| 当涂县| 尚志市| 西宁市| 盐池县| 宜君县| 县级市| 容城县| 宝兴县| 石家庄市| 澄迈县| 遂平县| 桦南县| 建瓯市| 耒阳市| 洞口县| 旬邑县| 嘉禾县| 宾阳县| 郑州市| 景东| 北流市| 碌曲县|