如何使用乳腺癌數(shù)據(jù)集的人工神經(jīng)網(wǎng)絡?
介紹在本文中,我們將學習一種深度學習技術如何用于尋找乳腺癌數(shù)據(jù)集的準確性,但我知道大多數(shù)技術人員不知道我在說什么,我們將從基礎開始,然后繼續(xù)討論我們的主題。首先我們簡單介紹一下深度學習,什么是人工神經(jīng)網(wǎng)絡?什么是深度學習?如果我們談論深度學習,那么可以簡單地理解它是機器學習的一個子集。我們可以說深度學習是一種人工智能功能,它模仿人腦并處理該數(shù)據(jù)并創(chuàng)建用于決策的模式。深度學習是一種類似于人腦的機器學習類型,它使用稱為神經(jīng)網(wǎng)絡的多層算法結(jié)構。它的算法試圖復制人類將使用給定邏輯結(jié)構分析數(shù)據(jù)的數(shù)據(jù)。它也被稱為深度神經(jīng)網(wǎng)絡或深度神經(jīng)學習。
在深度學習中有一個叫做人工神經(jīng)網(wǎng)絡的概念,我們將在下面簡要討論:人工神經(jīng)網(wǎng)絡顧名思義,人工神經(jīng)網(wǎng)絡,就是人工神經(jīng)元的網(wǎng)絡。它指的是模仿大腦的生物啟發(fā)模型?梢哉f,構建人腦結(jié)構的通常是基于生物神經(jīng)網(wǎng)絡的計算網(wǎng)絡。大家都知道,在我們的大腦中,神經(jīng)元是相互連接和傳遞數(shù)據(jù)的過程。它類似于人腦神經(jīng)元之間相互連接,神經(jīng)網(wǎng)絡由大量人工神經(jīng)元組成,稱為按層順序排列的單元。具有各層神經(jīng)元并形成一個完整的網(wǎng)絡。這些神經(jīng)元被稱為節(jié)點。它由三層組成,分別是:輸入層隱藏層輸出層
使用乳腺癌數(shù)據(jù)集創(chuàng)建ANN現(xiàn)在我們進入我們的主題,這里我們將采用數(shù)據(jù)集,然后創(chuàng)建人工神經(jīng)網(wǎng)絡并對診斷進行分類。首先,我們采用乳腺癌的數(shù)據(jù)集,然后繼續(xù)前進。乳腺癌數(shù)據(jù)集:https://www.kaggle.com/uciml/breast-cancer-wisconsin-data下載數(shù)據(jù)集后,我們將導入所需的重要庫。導入庫#import pandas
import pandas as pd
#import numpy
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sb
這里我們導入了 pandas、NumPy 和一些可視化庫,F(xiàn)在我們使用pandas加載我們的數(shù)據(jù)集:df = pd.read_csv('Breast_cancer.csv')
df
在此數(shù)據(jù)集中,我們指向**“diagnosis”**特征列,因此我們使用 Pandas 檢查該列的值計數(shù):# counting values of variables in 'diagnosis'
df['diagnosis'].value_counts()
現(xiàn)在為了更好地理解,我們可視化“diagnosis列”的值計數(shù)?梢暬涤嫈(shù)plt.figure(figsize=[17,9])
sb.countplot(df['diagnosis'].value_counts())
plt.show()
空值在數(shù)據(jù)集中,我們必須檢查我們使用pandas的變量中是否存在空值:df.isnull().sum()
執(zhí)行程序后,我們得出結(jié)論,特征名稱“Unnamed:32”包含所有空值,因此我們刪除該列。#droping feature
df.drop(['Unnamed: 32','id'],axis=1,inplace=True)
自變量和因變量現(xiàn)在是時候?qū)?shù)據(jù)集劃分為自變量和因變量了,為此我們創(chuàng)建了兩個變量,一個代表自變量,另一個代表因變量。# independent variables
x = df.drop('diagnosis',axis=1)
#dependent variables
y = df.diagnosis
處理分類值當我們打印因變量y 時,我們看到其中包含分類數(shù)據(jù),我們必須將分類數(shù)據(jù)轉(zhuǎn)換為二進制格式以進行進一步處理,因此我們使用 Scikit learn Label Encoder 對分類數(shù)據(jù)進行編碼。from sklearn.preprocessing import LabelEncoder
#creating the object
lb = LabelEncoder()
y = lb.fit_transform(y)
拆分數(shù)據(jù)現(xiàn)在是時候?qū)?shù)據(jù)拆分為訓練和測試部分了:from sklearn.model_selection import train_test_split
xtrain,xtest,ytrain,ytest = train_test_split(x,y,test_size=0.3,random_state=40)
縮放數(shù)據(jù)當我們創(chuàng)建人工神經(jīng)網(wǎng)絡時,我們必須將數(shù)據(jù)縮放為更小的數(shù)字,因為深度學習算法將節(jié)點的權重和輸入數(shù)據(jù)相乘,這需要大量時間,因此為了減少該時間,我們縮放數(shù)據(jù)。對于縮放,我們使用 scikit learn StandardScaler模塊,我們縮放訓練和測試數(shù)據(jù)集:#importing StandardScaler
from sklearn.preprocessing import StandardScaler
#creating object
sc = StandardScaler()
xtrain = sc.fit_transform(xtrain)
xtest = sc.transform(xtest)
從這里我們開始創(chuàng)建人工神經(jīng)網(wǎng)絡,為此我們導入用于創(chuàng)建 ANN 的重要庫:#importing keras
import keras
#importing sequential module
from keras.models import Sequential
# import dense module for hidden layers
from keras.layers import Dense
#importing activation functions
from keras.layers import LeakyReLU,PReLU,ELU
from keras.layers import Dropout
創(chuàng)建層導入這些庫后,我們創(chuàng)建了三種類型的層:輸入層隱藏層輸出層首先,我們創(chuàng)建模型:#creating model
classifier = Sequential()
Sequential模型適用于每一層恰好有一個輸入張量和一個輸出張量的平面堆棧,F(xiàn)在我們創(chuàng)建神經(jīng)網(wǎng)絡的層:#first hidden layer
classifier.a(chǎn)dd(Dense(units=9,kernel_initializer='he_uniform',activation='relu',input_dim=30))
#second hidden layer
classifier.a(chǎn)dd(Dense(units=9,kernel_initializer='he_uniform',activation='relu'))
# last layer or output layer
classifier.a(chǎn)dd(Dense(units=1,kernel_initializer='glorot_uniform',activation='sigmoid'))
在以下代碼中,使用 Dense 方法創(chuàng)建圖層,因為我們使用基本參數(shù)。第一個參數(shù)是輸出節(jié)點第二個是內(nèi)核權重矩陣的初始化器第三個是激活函數(shù)最后一個參數(shù)是輸入節(jié)點或獨立特征的數(shù)量。執(zhí)行此代碼后,我們使用以下方法對其進行總結(jié):#taking summary of layers
classifier.summary()
編譯人工神經(jīng)網(wǎng)絡現(xiàn)在我們用優(yōu)化器編譯我們的模型:#compiling the ANN
classifier.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])
將 ANN 擬合到訓練數(shù)據(jù)中編譯模型后,我們必須將 ANN 擬合到訓練數(shù)據(jù)中以進行預測: #fitting the ANN to the training set
model = classifier.fit(xtrain,ytrain,batch_size=100,epochs=100)
fit()方法將神經(jīng)網(wǎng)絡與訓練數(shù)據(jù)進行擬合,在參數(shù)中設置batch_size、epochs等變量的具體值。在訓練數(shù)據(jù)之后,我們還要對測試數(shù)據(jù)的準確性評分進行測試,如下所示:#now testing for Test data
y_pred = classifier.predict(test)
在執(zhí)行此代碼時,我們發(fā)現(xiàn) y_pred 包含不同的值,因此我們將預測值轉(zhuǎn)換為閾值,如True, False。#converting values
y_pred = (y_pred>0.5)
print(y_pred)
分數(shù)和混淆矩陣現(xiàn)在我們檢查混淆矩陣和預測值的分數(shù)。from sklearn.metrics import confusion_matrix
from sklearn.metrics import accuracy_score
cm = confusion_matrix(ytest,y_pred)
score = accuracy_score(ytest,y_pred)
print(cm)
print('score is:',score)
輸出:
可視化混淆矩陣在這里,我們可視化預測值的混淆矩陣# creating heatmap of comfussion matrix
plt.figure(figsize=[14,7])
sb.heatmap(cm,annot=True)
plt.show()
可視化數(shù)據(jù)歷史現(xiàn)在我們可視化每個時期的損失和準確性。# list all data in history
print(model.history.keys())
# summarize history for accuracy
plt.plot(model.history['accuracy'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
# summarize history for loss
plt.plot(model.history['loss'])
plt.title('model loss')
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
保存模型最后,我們保存我們的模型#saving the model
classifier.save('File_name.h5')
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構工程師 廣東省/深圳市