TensorFlow_T8 猫狗识别
目录
一、前言
- 🍨 本文为🔗365天深度学习训练营中的学习记录博客
- 🍖 原作者:K同学啊
二、前期准备
1、设置GPU
import tensorflow as tf
gpus=tf.config.list_physical_devices("GPU")
if gpus:
tf.config.experimental.set_memory_growth(gpus[0],True)
tf.config.set_visible_devices([gpus[0]],"GPU")
#打印显卡信息,确认GPU可用
print(gpus)
2、导入数据
import warnings
warnings.filterwarnings('ignore')
import pathlib
data_dir="D:\THE MNIST DATABASE\T8"
data_dir=pathlib.Path(data_dir)
image_count=len(list(data_dir.glob('*/*')))
print("图片总数为:",image_count)
运行结果如下:
三、数据预处理
1、加载数据
使用image_dataset_from_directory
方法将磁盘中的数据加载到tf.data.Dataset
中;
加载训练集:
train_ds=tf.keras.preprocessing.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="training",
seed=12,image_size=(224,224),
batch_size=8
)
运行结果如下:
加载验证集:
val_ds=tf.keras.preprocessing.image_dataset_from_directory(
data_dir,
validation_split=0.2,
subset="validation",
seed=12,
image_size=(224,224),
batch_size=8
)
运行结果如下:
通过class_names输出数据集的标签。标签将按字母顺序对应于目录名称;
class_names=train_ds.class_names
print(class_names)
运行结果如下:
2、再次检查数据
for image_batch,labels_batch in train_ds:
print(image_batch.shape)
print(labels_batch.shape)
break
运行结果如下:
Image_batch
是形状的张量(8, 224, 224, 3)。这是一批形状224x224x3的8张图片(最后一维指的是彩色通道RGB)。
Label_batch
是形状(8,)的张量,这些标签对应8张图片;
3、配置数据集
shuffle() : 打乱数据;
prefetch() :预取数据,加速运行;
cache() :将数据集缓存到内存当中,加速运行;
AUTOTUNE=tf.data.AUTOTUNE
def preprocess_image(image,label):
return (image/255.0,label)
#归一化处理
train_ds=train_ds.map(preprocess_image,num_parallel_calls=AUTOTUNE)
val_ds=val_ds.map(preprocess_image,num_parallel_calls=AUTOTUNE)
train_ds=train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds=val_ds.cache().prefetch(buffer_size=AUTOTUNE)
4、可视化数据
import matplotlib.pyplot as plt
plt.figure(figsize=(15,10))
for images,labels in train_ds.take(1):
for i in range(8):
ax=plt.subplot(5,8,i+1)
plt.imshow(images[i])
plt.title(class_names[labels[i]])
plt.axis("off")
运行结果如下:
四、构建VG-16网络
1、VGG优缺点分析
(1)VGG优点
VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2);
(2)VGG缺点
1)训练时间过长,调参难度大;
2)需要的存储容量大,不利于部署。例如存储VGG-16权重值文件的大小为500多MB,不利于安装到嵌入式系统中;
结构说明:
●13个卷积层(Convolutional Layer),分别用blockX_convX表示;
●3个全连接层(Fully connected Layer),分别用fcX与predictions表示;
●5个池化层(Pool layer),分别用blockX_pool表示;
VGG-16包含了16个隐藏层(13个卷积层和3个全连接层),故称为VGG-16;
from tensorflow.keras import layers,models,Input
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Conv2D,MaxPooling2D,Dense,Flatten,Dropout
def vgg16(nb_classes,input_shape):
input_tensor=Input(shape=input_shape)
#1st block
x=Conv2D(64,(3,3),activation='relu',padding='same')(input_tensor)
x=Conv2D(64,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#2nd block
x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#3rd block
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#4th block
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#5th block
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
x=MaxPooling2D((2,2),strides=(2,2))(x)
#full connection
x=Flatten()(x)
x=Dense(1024,activation='relu')(x)
x=Dense(108,activation='relu')(x)
output_tensor=Dense(nb_classes,activation='softmax')(x)
model=Model(input_tensor,output_tensor)
return model
model=vgg16(1000,(224,224,3))
model.summary()
运行结果如下:
五、编译
在准备对模型进行训练之前,还需要再对其进行一些设置。以下内容是在模型的编译步骤中添加的:
- 损失函数(loss):用于衡量模型在训练期间的准确率;
- 优化器(optimizer):决定模型如何根据其看到的数据和自身的损失函数进行更新;
- 评价函数(metrics):用于监控训练和测试步骤。以下示例使用了准确率,即被正确分类的图像的比率;
model.compile(optimizer="adam",
loss='sparse_categorical_crossentropy',
metrics=['accuracy']
)
六、训练模型
tqdm的原型是通过包裹可迭代对象来显示进度条,提供实时的进度更新和定制化的展示信息。
1、基本参数
(1)iterable:必须提供的参数,指定要迭代的对象;
(2)desc:进度条的描述文字,默认为None,用于在进度条前显示自定义的前缀;
(3)total:总的迭代次数,用于计算进度百分比,默认为None;
2、输出控制参数
(1)leave:控制进度条完成后是否保留,默认为True;
(2)file:指定输出进度条信息的文件对象,默认为sys.stderr;
(3)ncols:进度条的总宽度,即显示的字符数,默认为None,自动调整宽度;
3、进度条外观参数
(1)bar_format:自定义进度条的格式,默认为 "{desc}: {percentage:3.0f}%|{bar}| {n_fmt}/{total_fmt}";
(2)unit:进度条的单位名称,默认为"it";
(3)unit_scale:控制是否自动缩放单位,取值为True或False,默认为False;
4、动态调整参数
(1)dynamic_ncols:控制是否动态调整进度条宽度以适应终端大小,默认为False;
(2)smoothing:控制平滑进度条的更新,取值范围0到1,默认为0.3;
5、更新频率控制参数
(1)mininterval:最小更新间隔时间(秒),默认为0.1;
(2)maxinterval:最大更新间隔时间(秒),默认为10;
(3)miniters:最小更新次数,用于控制进度条的更新频率,默认为1;
6、其他选项参数
(1)ascii:控制是否使用ASCII字符显示进度条,默认为False;
(2)disable:控制是否禁用进度条,默认为False;
import time
from tqdm import tqdm
def action():
time.sleep(0.5)
with tqdm(total=5000, desc='test', leave=True, ncols=100, unit='B', unit_scale=True) as pbar:
for i in range(10):
# sleep 0.5秒
action()
# 更新sleep进度
pbar.update(500)
运行结果如下:
train_on_batch
函数的原型是
train_on_batch(x,
y=None,sample_weight=None,class_weight=None,
reset_metrics=True,return_dict=False)
1、参数说明
(1)x:这是必须提供的参数,指代模型的输入数据。如果模型只有一个输入,那么x可以是一个numpy数组;如果模型有多个输入,那么x应该是一个numpy数组的列表。当模型的输入被命名时,x还可以是一个字典,将输入名称映射到对应的numpy数组;
(2)y:这是可选参数,用于指定模型的目标(标签)数据。对于单输出模型,y是一个numpy数组;对于多输出模型,y是numpy数组的列表。与x类似,如果模型的输出层被命名,y也可以是一个字典,将输出层的名称映射到对应的numpy数组;
(3)sample_weight:这是可选参数,用于指定mini-batch中每个样本的权重。该参数接受一个形状为(batch_size)的数组,这些权重会被应用于每个样本的模型损失。在处理时间序列数据的情况下,可以传递一个形状为(samples, sequence_length)的二维数组,以对每个样本的每个时间步应用不同的权重。此时需要在编译模型时指定sample_weight_mode="temporal";
(4)class_weight:这是可选参数,用于在损失函数中为不同类别指定不同的权重,特别适用于处理类别不平衡的情况。该参数接受一个字典,将类索引(整数)映射到权重(浮点数),从而在训练期间对来自代表性不足类的样本进行重点关注;(5)reset_metrics:这是可选参数,默认值为True。当设置为True时,返回的度量值仅针对当前的mini-batch。如果设置为False,度量值会在各个批次之间累积。这在需要监控跨批次的度量值时非常有用;
(6)return_dict:这是可选参数,默认为False。当设置为False时,train_on_batch返回一个标量或标量列表,具体取决于模型的输出数量和度量数量。如果设置为True,则train_on_batch返回一个字典,其中包含loss和所有度量的名称及其相应的值。这个参数在需要以结构化方式处理多个输出结果时非常有用;
开始训练模型
from tqdm import tqdm
import tensorflow.keras.backend as K
epochs=10
lr=1e-4
#记录训练数据,方便后面的分析
history_train_loss=[]
history_train_accuracy=[]
history_val_loss=[]
history_val_accuracy=[]
for epoch in range(epochs):
train_total=len(train_ds)
val_total=len(val_ds)
"""
total:预期迭代数目
ncols:控制进度条宽度
mininterval:进度更新最小间隔,以秒为单位(默认值:0.1)
"""
with tqdm(total=train_total,desc=f'Epoch {epoch+1}/{epochs}',mininterval=1,ncols=100) as pbar:
lr=lr*0.92
K.set_value(model.optimizer.lr,lr)
for image,label in train_ds:
"""
训练模型,简单理解train_on_batch就是:它是比model.fit()%更高级的一个用法
"""
history=model.train_on_batch(image,label)
train_loss=history[0]
train_accuracy=history[1]
pbar.set_postfix({"loss":"%.4f"%train_loss,
"accuracy":"%.4f"%train_accuracy,
"lr":K.get_value(model.optimizer.lr)})
pbar.update(1)
history_train_loss.append(train_loss)
history_train_accuracy.append(train_accuracy)
print('开始验证!')
with tqdm(total=val_total,desc=f'Epoch {epoch+1}/{epochs}',mininterval=0.3,ncols=100) as pbar:
for image,label in val_ds:
history=model.test_on_batch(image,label)
val_loss=history[0]
val_accuracy=history[1]
pbar.set_postfix({"loss":"%.4f"%val_loss,
"accuracy":"%.4f"%val_accuracy})
pbar.update(1)
history_val_loss.append(val_loss)
history_val_accuracy.append(val_accuracy)
print('结束验证!')
print("验证loss为:%.4f"%val_loss)
print("验证准确率为:%.4f"%val_accuracy)
运行结果如下:
七、模型评估
epochs_range = range(epochs)
plt.figure(figsize=(14, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, history_train_accuracy, label='Training Accuracy')
plt.plot(epochs_range, history_val_accuracy, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.subplot(1, 2, 2)
plt.plot(epochs_range, history_train_loss, label='Training Loss')
plt.plot(epochs_range, history_val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()
运行结果如下:
八、预测
import numpy as np
#采用加载的模型来看预测结果
plt.figure(figsize=(18,3)) #图形的宽为18高为3
plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
plt.rcParams['axes.unicode_minus']=False #用来正常显示负号
for images,labels in val_ds.take(1):
for i in range(8):
ax=plt.subplot(1,8,i+1)
#显示图片
plt.imshow(images[i].numpy())
#需要给图片增加一个维度
img_array=tf.expand_dims(images[i],0)
#使用模型预测图片中的人物
predictions=model.predict(img_array)
plt.title(class_names[np.argmax(predictions)])
plt.axis("off")
运行结果如下:
👏觉得文章对自己有用的宝子可以收藏文章并给小编点个赞!
👏想了解更多统计学、数据分析、数据开发、机器学习算法、深度学习等有关知识的宝子们,可以关注小编,希望以后我们一起成长!
原文地址:https://blog.csdn.net/weixin_54194264/article/details/144091761
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!