内容介绍:在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。
具体内容:
1. 导包
import numpy as np
import mindspore
from mindspore import nn
from mindspore import Tensor
2. 创建模型
def network():
model = nn.SequentialCell(
nn.Flatten(),
nn.Dense(28*28, 512),
nn.ReLU(),
nn.Dense(512, 512),
nn.ReLU(),
nn.Dense(512, 10))
return model
3. 保存模型
保存模型使用`save_checkpoint`接口,传入网络和指定的保存路径:
model = network()
mindspore.save_checkpoint(model, "model.ckpt")
4. 加载模型
要加载模型权重,需要先创建相同模型的实例,然后使用`load_checkpoint`和`load_param_into_net`方法加载参数。
model = network()
param_dict = mindspore.load_checkpoint("model.ckpt")
param_not_load, _ = mindspore.load_param_into_net(model, param_dict)
print(param_not_load)
5. 保存MindIR
除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的中间表示。可使用`export`接口直接将模型保存为MindIR。
model = network()
inputs = Tensor(np.ones([1, 1, 28, 28]).astype(np.float32))
mindspore.export(model, inputs, file_name="model", file_format="MINDIR")
MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。
6. 加载MindIR
已有的MindIR模型可以方便地通过`load`接口加载,传入`nn.GraphCell`即可进行推理。
`nn.GraphCell`仅支持图模式。
mindspore.set_context(mode=mindspore.GRAPH_MODE)
graph = mindspore.load("model.mindir")
model = nn.GraphCell(graph)
outputs = model(inputs)
print(outputs.shape)
模型的保存与加载是深度学习项目生命周期中不可或缺的一环。通过保存训练好的模型,我们可以随时加载并用于后续的推理、评估或进一步训练,这大大提高了工作的效率和灵活性。
MindSpore框架提供了简洁明了的API用于模型的保存与加载,使得这一过程变得简单而高效。这降低了使用者的学习成本,使得即使是初学者也能快速上手。