訂閱
糾錯(cuò)
加入自媒體

如何使用Python將給定的圖像集進(jìn)行聚類?

介紹大家好,最近在參加深度學(xué)習(xí)競賽時(shí),遇到了一個(gè)有趣的問題,即如何將給定的圖像集進(jìn)行聚類,你可能會(huì)說,這不是一個(gè)簡單的分類問題嗎?使用卷積神經(jīng)網(wǎng)絡(luò), 就實(shí)現(xiàn),但關(guān)鍵在于沒有合適訓(xùn)練數(shù)據(jù)提供訓(xùn)練。在不想自己收集數(shù)據(jù)集的情況,我們?nèi)绾谓鉀Q這個(gè)問題呢?這就是本文的主要內(nèi)容,即將深度學(xué)習(xí)直接應(yīng)用于測試數(shù)據(jù)(此處為圖像),而無需創(chuàng)建訓(xùn)練數(shù)據(jù)集并在該數(shù)據(jù)集上訓(xùn)練神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)作為特征提取器首先我們需要討論為什么需要特征提取器?以及如何使卷積神經(jīng)網(wǎng)絡(luò)(CNN)發(fā)揮作用。圖像數(shù)據(jù)的特征提取器:假設(shè)算法需要像特征一樣需要兩只眼睛,一只鼻子和一張嘴來將圖像分類為面部,但是在不同的圖像中,這些特征存在于不同的像素位置,因此簡單地將圖像扁平化并將其提供給算法是不起作用的。而解決這個(gè)問題剛好是CNN的卷積層發(fā)揮作用的地方。卷積層作為我們的特征提取器,并將圖像分解為越來越精細(xì)的細(xì)節(jié),我們來看一下下面的例子:

這是一只貓的圖像,這是Vgg16的第一個(gè)卷積層看到它的樣子

請注意不同的圖像,這些是我們的CNN所學(xué)習(xí)的特征圖,一些特征圖著重于輪廓,一些特征著重于紋理,而某些特征則涉及更細(xì)微的細(xì)節(jié)(如耳和嘴),下一階段的卷積層將這些特征分解得更細(xì)的細(xì)節(jié)。

上午我們知道了卷積層可以學(xué)習(xí)圖像的特定功能,那么接下來我們將實(shí)現(xiàn)編碼。實(shí)現(xiàn)CNN的卷積層網(wǎng)絡(luò):以下代碼顯示了如何使用預(yù)訓(xùn)練的CNN Vgg16獲得以上結(jié)果:MyModel = tf2.<a onclick="parent.postMessage({'referent':'.tensorflow.keras'}, '*')">keras.a(chǎn)pplications.VGG16(
   include_top=True, weights='imagenet', input_tensor=None, input_shape=None,
   pooling=None, classes=1000, classifier_activation='softmax'

MyModel.summary()
## lets Define a Function that can show Features learned by CNN's nth convolusion layer
def ShowMeWhatYouLearnt(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..Image'}, '*')">Image, <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..layer'}, '*')">layer, <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel):
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = img_to_array(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..Image'}, '*')">Image)
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = np.<a onclick="parent.postMessage({'referent':'.numpy.expand_dims'}, '*')">expand_dims(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img, 0)
   ### preprocessing for img for vgg16
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = tf2.<a onclick="parent.postMessage({'referent':'.tensorflow.keras'}, '*')">keras.a(chǎn)pplications.vgg16.preprocess_input(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img)
   ## Now lets define a model which will help us
   ## see what vgg16 sees
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..inputs'}, '*')">inputs = <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel.inputs
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..outputs'}, '*')">outputs = <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel.layers[<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..layer'}, '*')">layer].output
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..model'}, '*')">model = Model(inputs=<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..inputs'}, '*')">inputs, outputs=<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..outputs'}, '*')">outputs)
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..model'}, '*')">model.summary()
   ## let make predictions to see what the Cnn sees

1  2  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請輸入評(píng)論內(nèi)容...

請輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)