佳木斯湛栽影视文化发展公司

主頁(yè) > 知識(shí)庫(kù) > pytorch 如何自定義卷積核權(quán)值參數(shù)

pytorch 如何自定義卷積核權(quán)值參數(shù)

熱門標(biāo)簽:電話運(yùn)營(yíng)中心 語(yǔ)音系統(tǒng) 客戶服務(wù) 企業(yè)做大做強(qiáng) 呼叫中心市場(chǎng)需求 硅谷的囚徒呼叫中心 百度AI接口 Win7旗艦版

pytorch中構(gòu)建卷積層一般使用nn.Conv2d方法,有些情況下我們需要自定義卷積核的權(quán)值weight,而nn.Conv2d中的卷積參數(shù)是不允許自定義的,此時(shí)可以使用torch.nn.functional.conv2d簡(jiǎn)稱F.conv2d

torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)

F.conv2d可以自己輸入且也必須要求自己輸入卷積權(quán)值weight和偏置bias。因此,構(gòu)建自己想要的卷積核參數(shù),再輸入F.conv2d即可。

下面是一個(gè)用F.conv2d構(gòu)建卷積層的例子

這里為了網(wǎng)絡(luò)模型需要寫成了一個(gè)類:

class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.weight = nn.Parameter(torch.randn(16, 1, 5, 5))  # 自定義的權(quán)值
        self.bias = nn.Parameter(torch.randn(16))    # 自定義的偏置
 
    def forward(self, x):
        x = x.view(x.size(0), -1)
        out = F.conv2d(x, self.weight, self.bias, stride=1, padding=0)
        return out

值得注意的是,pytorch中各層需要訓(xùn)練的權(quán)重的數(shù)據(jù)類型設(shè)為nn.Parameter,而不是Tensor或者Variable。parameter的require_grad默認(rèn)設(shè)置為true,而Varaible默認(rèn)設(shè)置為False。

補(bǔ)充:pytorch中卷積參數(shù)的理解

kernel_size代表著卷積核,例如kernel_size=3或kernel_size=(3,7);

stride:表明卷積核在像素級(jí)圖像上行走的步長(zhǎng),如圖2,步長(zhǎng)為1;

padding:為上下左右填充的大小,例如padding=0/1/(1,1)/(1,3),

padding=0 不填充;

padding=1/(1,1) 上下左右分別填充1個(gè)格;

padding=(1,3) 高(上下)填充2個(gè)格,寬(左右)填充6個(gè)格;

卷積代碼

torch.nn.Conv2d(512,512,kernel_size=(3,7),stride=2,padding=1)

指定輸出形狀的上采樣

def upsample_add(self,x,y):
        _,_,H,W = y.size()
        return F.interpolate(x, size=(H,W), mode='bilinear', align_corners=False) + y

反卷積上采樣

output_shape_w=kernel_size_w+(output_w-1)(kernel_size_w-1)+2padding
self.upscore2 = nn.ConvTranspose2d(
            512, 1, kernel_size=3, stride=2,padding=0, bias=False)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch固定BN層參數(shù)的操作
  • pytorch交叉熵?fù)p失函數(shù)的weight參數(shù)的使用
  • Pytorch 統(tǒng)計(jì)模型參數(shù)量的操作 param.numel()
  • pytorch 一行代碼查看網(wǎng)絡(luò)參數(shù)總量的實(shí)現(xiàn)
  • pytorch查看網(wǎng)絡(luò)參數(shù)顯存占用量等操作
  • pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作
  • pytorch LayerNorm參數(shù)的用法及計(jì)算過程

標(biāo)簽:濟(jì)南 山西 山西 安康 崇左 喀什 長(zhǎng)沙 海南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 如何自定義卷積核權(quán)值參數(shù)》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266
    图木舒克市| 芦溪县| 广水市| 呼玛县| 苍梧县| 皋兰县| 吉安县| 西乌珠穆沁旗| 满洲里市| 固原市| 湄潭县| 南靖县| 太保市| 邵阳县| 阿克| 峡江县| 丽江市| 临汾市| 灵台县| 牙克石市| 长汀县| 许昌县| 禄丰县| 安龙县| 年辖:市辖区| 洛阳市| 蒙自县| 深圳市| 洛宁县| 永新县| 杭锦后旗| 财经| 和政县| 琼结县| 宜黄县| 门头沟区| 清水县| 绩溪县| 镇康县| 东乡族自治县| 新绛县|