訂閱
糾錯(cuò)
加入自媒體

使用Python可視化卷積神經(jīng)網(wǎng)絡(luò)方法匯總


2. 基于激活的方法2.1 最大激活為了了解我們的神經(jīng)網(wǎng)絡(luò)在做什么,我們可以對輸入圖像應(yīng)用濾波器,然后繪制輸出,這使我們能夠理解什么樣的輸入模式激活了一個(gè)特定的濾波器,例如,可能有一個(gè)人臉濾波器,當(dāng)它在圖像中出現(xiàn)一個(gè)人臉時(shí)會(huì)激活它。from vis.visualization import visualize_activationfrom vis.utils import utilsfrom keras import activations

from matplotlib import pyplot as plt%matplotlib inlineplt.rcParams['figure.figsize'] = (18, 6)

# 按名稱搜索圖層索引。# 或者,我們可以將其指定為-1,因?yàn)樗鼘?yīng)于最后一層。layer_idx = utils.find_layer_idx(model, 'preds')

#用線性層替換softmaxmodel.layers[layer_idx].a(chǎn)ctivation = activations.linearmodel = utils.a(chǎn)pply_modifications(model)

# 這是我們要最大化的輸出節(jié)點(diǎn)。filter_idx = 0img = visualize_activation(model, layer_idx, filter_indices=filter_idx)plt.imshow(img[..., 0])

我們可以把這個(gè)想法轉(zhuǎn)移到所有的類中,并檢查每個(gè)類。PS:運(yùn)行下面的腳本來檢查它。for output_idx in np.a(chǎn)range(10):   # 讓我們這次關(guān)閉詳細(xì)輸出以避免混亂   img = visualize_activation(model, layer_idx, filter_indices=output_idx, input_range=(0., 1.))   plt.figure()   plt.title('Networks perception of {}'.format(output_idx))   plt.imshow(img[..., 0])2.2 圖像遮擋在一個(gè)圖像分類問題中,一個(gè)簡單問題是模型是否真正識(shí)別了圖像中對象的位置,或者僅僅使用了周圍的上下文。我們在上面基于梯度的方法中對此做了簡要的介紹。基于遮擋的方法試圖通過系統(tǒng)地用一個(gè)灰色正方形遮擋輸入圖像的不同部分來回答這個(gè)問題,并監(jiān)視分類器的輸出。示例清楚地表明,模型正在場景中定位對象,因?yàn)楫?dāng)對象被遮擋時(shí),正確類的概率顯著降低。

為了理解這個(gè)概念,讓我們從數(shù)據(jù)集中隨機(jī)抽取一張圖像,并嘗試?yán)L制圖像的熱圖。這將給我們一個(gè)直覺,圖片的哪些部分是重要的,可以明確區(qū)分類別。def iter_occlusion(image, size=8):
  occlusion = np.full((size * 5, size * 5, 1), [0.5], np.float32)   occlusion_center = np.full((size, size, 1), [0.5], np.float32)   occlusion_padding = size * 2

  # print('padding...')   image_padded = np.pad(image, (    (occlusion_padding, occlusion_padding), (occlusion_padding, occlusion_padding), (0, 0)    ), 'constant', constant_values = 0.0)

  for y in range(occlusion_padding, image.shape[0] + occlusion_padding, size):

      for x in range(occlusion_padding, image.shape[1] + occlusion_padding, size):           tmp = image_padded.copy()

          tmp[y - occlusion_padding:y + occlusion_center.shape[0] + occlusion_padding,              x - occlusion_padding:x + occlusion_center.shape[1] + occlusion_padding]              = occlusion

          tmp[y:y + occlusion_center.shape[0], x:x + occlusion_center.shape[1]] = occlusion_center

          yield x - occlusion_padding, y - occlusion_padding,              tmp[occlusion_padding:tmp.shape[0] - occlusion_padding, occlusion_padding:tmp.shape[1] - occlusion_padding]
i = 23 # 例如data = val_x[i]correct_class = np.a(chǎn)rgmax(val_y[i])

# model.predict的輸入向量inp = data.reshape(1, 28, 28, 1)

# matplotlib imshow函數(shù)的圖片img = data.reshape(28, 28)

# 遮蓋img_size = img.shape[0]occlusion_size = 4

print('occluding...')
heatmap = np.zeros((img_size, img_size), np.float32)class_pixels = np.zeros((img_size, img_size), np.int16)

from collections import defaultdictcounters = defaultdict(int)

for n, (x, y, img_float) in enumerate(iter_occlusion(data, size=occlusion_size)):

   X = img_float.reshape(1, 28, 28, 1)    out = model.predict(X)    #print('#{}: {} @ {} (correct class: {})'.format(n, np.a(chǎn)rgmax(out), np.a(chǎn)max(out), out[0][correct_class]))    #print('x {} - {} | y {} - {}'.format(x, x + occlusion_size, y, y + occlusion_size))

   heatmap[y:y + occlusion_size, x:x + occlusion_size] = out[0][correct_class]    class_pixels[y:y + occlusion_size, x:x + occlusion_size] = np.a(chǎn)rgmax(out)    counters[np.a(chǎn)rgmax(out)] += 1

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請輸入評(píng)論內(nèi)容...

請輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)