iOS MachineLearning 系列(16)—— 几个常用的图片分类CoreML模型
iOS MachineLearning 系列(16)—— 几个常用的图片分类CoreML模型
在本系列的前面文章中,有介绍使用Vision框架中的VNClassifyImageRequest进行图片物体识别。Apple也推荐了几个常用的图像分类模型可供开发者使用。可以在如下地址直接下载:
https://developer.apple.com/machine-learning/models/
1 - 几个模型的简单介绍
对于图片识别分类的模型来说,其输入和输出都一样,输入都为图像参数,输入为两部分,一部分为最佳预测结果,一部分为可能得预测结果及其可信度。
Resnet50
Resnet50是一种神经网络分类模型,其大小为102.6M左右,其可以从1000种类别中检测输入图像中的主要元素,包括树木,动物,食物,车辆和人等。其测量的误差率为7.8%。
MobileNetV2
MobileNetV2是一种神经网络分类模型,其大小约为24.7M,其同样能从千余种类别中检测图像里的主要元素。其测量的准确率为74.7%。
SqueezeNet
SqueezeNet也是一种神经网络分类模型,其最大的特点是非常小巧,参数可以减少50倍。我们直接使用的模型大小仅有5M左右。
整体来说,Resnet50体积最大,其预测的精准度也相比会更好,但是对于图片比较清晰,内容比较单一的图像,这些模型都可以满足我们的正常需求。
2 - 使用示例
关于CoreML模型的使用,之前的文章有做详细的介绍,这里并没有额外需要注意的地方。我们直接将模型下载下来引入到Xcode工程中,Xcode会自动帮我们生成模型的使用代码,分别初始化3个模型的操作对象如下:
1 | // mobileNet2模型 |
对应的,创建输入参数:
1 | let mobileNet2Input = try! MobileNetV2Input(imageWith: image.cgImage!) |
进行预测:
1 | // 进行图像识别 |
结果如下图所示:
可以看到,3种模型都正确的对图片进行了分类,正确的检测出了图片中的“猕猴”。
完整的示例代码可以在如下地址找到: