使用Python可視化卷積神經(jīng)網(wǎng)絡(luò)方法匯總
3. 基于梯度的方法3.1 顯著性圖正如我們在坦克的例子中所看到的,我們?nèi)绾尾拍苤牢覀兊哪P完P(guān)注哪個部分來獲得預(yù)測?為此,我們可以使用顯著性圖。使用顯著性圖的概念是非常直接的——我們計算輸出類別相對于輸入圖像的梯度,這可以告訴我們輸出類別值相對于輸入圖像像素的微小變化是如何變化的。梯度中的所有正值都告訴我們,對該像素的微小更改將增加輸出值,因此,將這些與圖像形狀相同的梯度可視化,應(yīng)該能提供一些直覺。直觀地,該方法突出了對輸出貢獻最大的顯著圖像區(qū)域。class_idx = 0indices = np.where(val_y[:, class_idx] == 1.)[0]
# 從這里選取一些隨機輸入。idx = indices[0]
# 讓sanity檢查選中的圖像。from matplotlib import pyplot as plt%matplotlib inlineplt.rcParams['figure.figsize'] = (18, 6)
plt.imshow(val_x[idx][..., 0])
from vis.visualization import visualize_saliencyfrom vis.utils import utilsfrom keras import activations
# 按名稱搜索圖層索引# 或者,我們可以將其指定為-1,因為它對應(yīng)于最后一層。layer_idx = utils.find_layer_idx(model, 'preds')
# 用線性層替換softmaxmodel.layers[layer_idx].a(chǎn)ctivation = activations.linearmodel = utils.a(chǎn)pply_modifications(model)
grads = visualize_saliency(model, layer_idx, filter_indices=class_idx, seed_input=val_x[idx])# 可視化為熱圖。plt.imshow(grads, cmap='jet')
# 線性層。for class_idx in np.a(chǎn)range(10): indices = np.where(val_y[:, class_idx] == 1.)[0] idx = indices[0]
f, ax = plt.subplots(1, 4) ax[0].imshow(val_x[idx][..., 0])
for i, modifier in enumerate([None, 'guided', 'relu']): grads = visualize_saliency(model, layer_idx, filter_indices=class_idx, seed_input=val_x[idx], backprop_modifier=modifier) if modifier is None: modifier = 'vanilla' ax[i+1].set_title(modifier) ax[i+1].imshow(grads, cmap='jet')
3.2 基于梯度的類激活圖類激活圖是另一種在進行預(yù)測時可視化模型所看到內(nèi)容的方法,使用倒數(shù)第二卷積層輸出,而不是使用相對于輸出的梯度,這樣做是為了利用存儲在倒數(shù)第二層的空間信息。from vis.visualization import visualize_cam
# 線性層。for class_idx in np.a(chǎn)range(10): indices = np.where(val_y[:, class_idx] == 1.)[0] idx = indices[0]
f, ax = plt.subplots(1, 4) ax[0].imshow(val_x[idx][..., 0])
for i, modifier in enumerate([None, 'guided', 'relu']): grads = visualize_cam(model, layer_idx, filter_indices=class_idx, seed_input=val_x[idx], backprop_modifier=modifier) if modifier is None: modifier = 'vanilla' ax[i+1].set_title(modifier) ax[i+1].imshow(grads, cmap='jet')
結(jié)尾在本文中,我們介紹了如何可視化CNN模型,以及為什么要可視化,我們結(jié)合一個例子來實現(xiàn)它。參考鏈接:https://www.a(chǎn)nalyticsvidhya.com/blog/2018/03/essentials-of-deep-learning-visualizing-convolutional-neural-networks/
☆ END ☆

最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?