首页 >AI

初探机器学习框架Core ML

2017-11-23 14:16 编辑: 四门三连 分类:AI 来源:Pnyg_回眸

CoreML是iOS 11新推出的机器学习框架,是人工智能的核心内容,他可以在训练好的机器学习模型应用到APP中

74454-4726f1eccb39b18c.png

所谓已训练模型 (trained model)指的是对一组训练数据应用了某个机器学习算法后,所生成的一组结果Core ML 是领域特定 (domain-specific) 框架和功能的基础所在。Core ML 为 Vision 提供了图像处理的支持,为 Foundation 提供了自然语言处理的支持(例如 NSLinguisticTagger 类),为 GameplayKit 提供了对学习决策树 (learned decision tree) 进行分析的支持。Core ML 本身是基于底层基本类型而建立的,包括 Accelerate、BNNS 以及 Metal Performance Shaders 等。

获取模型

Core ML 支持多种机器学习模型,其中包括了神经网络 (Neural Network)、组合树 (Tree Ensemble)、支持向量机 (Support Vector Machine) 以及广义线性模型 (Generalized Linear Model)。Core ML 的运行需要使用 Core ML 模型格式(也就是以 .mlmodel 扩展名结尾的模型)。

Apple 提供了一些常见的开源模型供大家使用,这些模型已经使用了 Core ML 模型格式。您可以自行下载这些模型,然后就可以开始在应用中使用它们了。

工程实例

首先因为CoreML和Vision都是iOS 11才有的功能,你要确保Xcode9和iOS 11的设备,当然模拟器也可以。开发语言使用Swift4

1.将模型添加到Xcode中

创建工程并引入模型文件

2076247-68dcc1c1f357a583.png

单击这个文件就可以看到这个模型的详细信息

2076247-c614e0193b397667.png

下面是这个模型的官方介绍

Detects the dominant objects present in an image from a set of 1000 categories such as trees, animals, food, vehicles, people, and more.大意为可以从1000个类别中筛选传树木、动物、食品、汽车、人等等。

2.模型解读

inputs中写了需要一个image 大小299*299;outputs里会有两个参数classLabelProbs和classLabel,classLabelProbs是一个[string:Double]的字典数组,数组里每一个字典就是这个输入图片分析得出可能的一个结果string就是对图片类型的描述,而double就是可能性百分比。另一个classLabel就是最有可能的一个一个结果描述

Model Class下面有这个类文件点进去可以看到如下三个类

input输入源,可以看到它需要一个CVPixelBuffer格式的图片作为输入

2076247-580fd7618cfab733.png

output可以看到输出的两个参数classLabel和classLabelProbs正式我们上面有介绍过的所有可能的结果数组与最有可能的结果描述

2076247-c74fdd1265827c33.png

inceptionv3调用这个类的Prediction方法来开始进行分析

2076247-31eab52d03e3476a.png

3.编写代码

定义一个imageView,一个Label,一个button
点击按钮打开相册选取图片,选取完成执行下面的方法,然后再label显示分析结果
    func process(_ image: UIImage) {
        imageView.image = image
        // 需要CVPixelBuffer格式的输入源
        guard let pixelBuffer = image.pixelBuffer(width: 299, height: 299) else {
            return
        }
        //I have `Use of unresolved identifier 'Inceptionv3'` error here when I use New Build System (File > Project Settings)   ˉ\_(ツ)_/ˉ
        let model = Inceptionv3()
        do {
            // 调用model的prediction方法进行分析
            let output = try model.prediction(image: pixelBuffer)
            // 打印输出结果
            let probs = output.classLabelProbs.sorted { $0.value > $1.value }
            if let prob = probs.first {
                Label.text = "\(prob.key) \(prob.value)"
            }
        }
        catch {
            self.presentAlertController(withTitle: title,
                                        message: error.localizedDescription)
        }
    }

运行效果

2076247-0eaf1cb9b0355be6.png

2076247-ebc696512fff9ff0.png

2076247-69c0d1f3637e0fb2.png

Demo

Demo下载

搜索CocoaChina微信公众号:CocoaChina
微信扫一扫
订阅每日移动开发及APP推广热点资讯
公众号:
CocoaChina
我要投稿   收藏文章
上一篇:人工智能,机器学习和深度学习之间的差异是什么?
下一篇:探讨未来人与 AI 关系的西部世界,给我们建设特色小镇带来了哪些启示?
我来说两句
发表评论
您还没有登录!请登录注册
所有评论(0

综合评论

相关帖子

sina weixin mail 回到顶部