- 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
- 🍖 原作者:K同学啊
import tensorflow as tf
gpus = tf.config.list_physical_devices("GPU")if gpus:gpu0 = gpus[0]tf.config.experimental.set_memory_growth(gpu0, True)tf.config.set_visible_device([gpu0], "GPU")
使用dataset下载MNIST数据集,并划分训练集和测试集
使用dataloader加载数据
import tensorflow as tf
from tensorflow.keras import datasets, layers, models
import matplotlib.pyplot as plt(train_images, train_labels), (test_images, test_labels) = datasets.cifar10.load_data()
数据归一化作用
- 使不同量纲的特征处于同一数值量级,减少方差大的特征的影响,使模型更准确
- 加快学习算法的准确性
train_images, test_images = train_images / 255.0, test_images / 255.0train_images.shape, test_images.shape, train_labels.shape, test_labels.shape
class_names = ['airplane', 'automobile', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck']plt.figure(figsize = (20, 10))
for i in range(20):
plt.subplot(5, 10, i + 1)
plt.xticks([])
plt.yticks([])
plt.grid(False)
plt.imshow(train_images[i], cmap = plt.cm.binary)
plt.xlabel(class_names[train_labels[i][0]])plt.show()
对于一般的CNN网络来说,都是由特征提取网络和分类网络构成,其中特征提取网络用于提取图片的特征,分类网络用于将图片进行分类。
- 卷积层:通过卷积操作对输入图像进行降维和特征抽取,有卷积,填充,步幅三个部分。
- 卷积:假设输入图片为n * n,通过k * k的卷积核,那么输出维度为(n-k+1)*(n-k+1)。
- 填充:假设输入图片为n * n,通过k * k的卷积核, 且填充为p,那么输出维度为(n-k+2p+1)*(n-k+2p+1)
- 步幅: 假设输入图片为n * n,通过k * k的卷积核, 填充为p,且步幅为s,那么输出维度为((n-k+2p)/ s +1)*((n-k+2p)/ s +1)
- 池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。
- 与卷积层一样,假设输入图片为n * n,通过k * k的卷积核, 填充为p,且步幅为s,那么输出维度为((n-k+2p)/ s +1)*((n-k+2p)/ s +1)
#二、构建简单的CNN网络
# 创建并设置卷积神经网络
# 卷积层:通过卷积操作对输入图像进行降维和特征抽取,输出维度为
# 池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。
# 全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。
model = models.Sequential([layers.Conv2D(32, (3, 3), activation = 'relu', input_shape= (32, 32, 3)),layers.MaxPooling2D((2, 2)),layers.Conv2D(64, (3, 3), activation = 'relu'),layers.MaxPooling2D((2, 2)),layers.Conv2D(64, (3, 3), activation = 'relu'),layers.Flatten(),layers.Dense(64, activation = 'relu'),layers.Dense(10)
])model.summary()
#以上为简单的tf八股模板,可以看B站的北大老师曹健的tensorflow笔记
#这里设置优化器,损失函数以及metrics
model.compile(#设置优化器为Adam优化器optimizer = 'adam',#设置损失函数为交叉熵损失函数loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits = True),metrics = ['accuracy']
)
history = model.fit(train_images,train_lables,epochs = 10,validation_data = (test_images, test_lables)
)
plt.imshow(test_images[1])
import numpy as nppre = model.predict(test_images)
print(class_names[np.argmax(pre[1])])
import matplotlib.pyplot as pltplt.plot(history.history['accuracy'], label = 'accuracy')
plt.plot(history.history['val_accuracy'], label = 'val_accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')
plt.ylim([0.5, 1]) #设置y轴刻度
plt.legend(loc = 'lower right')
plt.show()test_loss, test_acc = model.evaluate(test_images, test_labels, verbose = 2)
#verbose = 0不输出日志信息, = 0 输出进度条记录, = 2 输出一行记录
print(test_acc)