# 作者介绍
石璞东,本科通信,研究生软工,目前研二在读,研究方向包括机器学习、Web
前端开发、网络爬虫等,人民邮电出版社签约作者,《智能前端技术与实践》作者,百度西安飞桨领航团金牌团长,阿里云乘风者计划专家博主。
# 快速了解 🔜
# 我想在抖音上看
# 我想在Bilibili上看
# 关于《智能前端技术与实践》
# 1. 什么是《智能前端》?
提到“智能前端”,你能想到什么?
是根据设计稿智能生成代码的imgCook
、基于GPT-3
的代码生成工具Copilot
、将自然语言转换为代码的NL2Code
还是代码分析工具DeepCode
...
我觉得以上这些当然都是“智能前端”的缩影,那么在现阶段,我们对于智能前端的认识可能还是停留在D2C
或P2C
阶段,从宏观的概念上讲,我认为智能前端是指从产品设计到产品发布的全链路智能化。
我的这本书,书名叫做《智能前端技术与实践》,其中,“智能”表示人工智能,具体领域是指计算机视觉,“前端”表示Web
前端开发,具体领域是指网站开发、小程序开发以及浏览器扩展程序开发,我们都知道一个成熟的人工智能应用包括算法、数据以及工程(即大前端)三个方面,因此,在人工智能时代,前端智能化是Web前端领域的重要发展趋势之一。
本书以前端智能化为大背景,核心技术栈包括Web前端开发和深度学习两大领域,使用到的工具是TensorFlow.js
,从宏观上看,全书可以分为3部分,共计12章、13个案例,第一部分(第1~5章)涵盖本书案例所依赖的开发环境、前端开发基础知识、TensorFlow 2
基础知识、深度学习基础知识、TensorFlow.js
框架以及常见的轻量级神经网络算法,包括MobileNet V1/V2/V3
、ShuffleNet V1/V2
、SqueezeNet
和Xception
;第二部分(第6~11章)在第一部分的基础上完成了恶意文本检测、线性回归、逻辑回归、XOR
问题、人体姿态检测、目标检测、OCR
识别等13个案例;第三部分(第12章)涵盖Google
官方开发的一些有趣的人工智能应用,如基于RNN
和LSTM
的股价预测、Google
拉面馆、猜画小歌、3D
人脸涂鸦、Invisibility Cloak
以及Teachable Machine
等,本书的所有案例都被部署在我的个人自建平台上,包括个人网站、微信小程序以及Google
扩展程序,大家可以在我的平台上便捷的体验到人工智能应用的魅力~
我希望本书能够帮助相关从业者或任何对深度学习和前端开发感兴趣的朋友快速入门,进而促进复杂人工智能在移动端设备或嵌入式设备上的应用。
# 2. 为什么是TensorFlow.js?
在回答这个问题之前,我们先来思考一下:在浏览器端运行一个深度学习模型都有哪些方法?
# 1. deeplearn.js ➡ TensorFlow.js Core
deeplearn.js
即为TensorFlow.js Core
的前身,因此我们可以直接借助TensorFlow.js
提供的tfjs-converter
工具完成转换;
# 2. paddlejs ➡ paddlejs-converter
我们可以直接借助百度飞桨提供的paddlejs-converter
工具完成转换,其生态略逊于TensorFlow.js
;
# 3. onnx.js
微软的开源项目onnx.js
,用来将torch/TensorFlow
模型转换为onnx
格式,然后在浏览器端通过onnx.js
执行。但是其生态较为混乱,在处理模型时总是出现各种各样的问题,其次,该项目的官方文档很长时间没有更新了(最近一次更新是readme.md
文档,4个月前,核心文档都是至少12个月之前)
# 4. pytorchjs/torchjs
官方不支持,GitHub
热度低。
以上4种转换方法虽然思路较为简单,但其结果却不尽如人意,尤其是当我们在将由torch
或Caffe
等其他框架编写的算法模型转换成可以在浏览器端运行的模型时,往往会遇到一些难以解决的问题,这里我们给出以下两个思路:
pytorch ➡ onnx ➡ TensorFlow ➡ TensorFlow.js
Caffe/TensorFlow/ONNX/PyTorch ➡ Paddle ➡ paddlejs-converter
ONNX
:Open Neural Network Exchange
,是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型,是一个深度学习模型标准,该标准可以使深度学习模型在不同的深度学习框架之间平滑的进行迁移,那目前支持ONNX
的深度学习框架包括Caffe2
、亚马逊MXNet
、英伟达TensorRT
、微软CNTK
、Paddle
、PyTorch
、TensorFlow
。
2018年3月,TensorFlow
宣布重大更新:增加支持JavaScript
,并推出开源库TensorFlow.js
,用户可以完全在浏览器定义、训练和运行机器学习模型。实际上,在Web
端通过JavaScript
能够使用GPU
进行计算的方式主要是利用WebGL
或WebGPU
的计算特性,利用WebGL
调用GPU
进行并行化计算的特性充分发挥GPU
的并行计算能力,同时结合WebWorker
多线程技术,提高大数据量结果的输出速度。
TensorFlow.js
支持多种backend
用来实现张量存储和数学运算,它会根据当前环境帮助我们自动选择最佳的backend
:
# 1. WebGL
当前适用于浏览器功能最强大的backend
,其速度比普通的CPU
快100倍,这是因为它会将张量存储为WebGL
纹理,所有的数学运算都将在WebGL Shader
中实现。
(1) 内存管理:如果使用WebGL
作为backend
,就需要进行显示的内存管理,浏览器是不会自动回收WebGL Texture
的垃圾,因此,大家会在本书的代码中看到我使用tf.tidy
或tf.dispose
等方法来清理执行函数时可能产生的一些局部变量。
(2) 精度:机器学习模型中使用到的数字精度为32位,而在移动端设备上,WebGL
可能仅支持16位,因此在使用之前,我们需要检查当前设备的精度,从而避免当为移动端设备移植模型时会产生的精度问题。
# 2. Node.js
使用TensorFlow C API
进行加速,这种情况下,可以使用计算机的硬件进行加速,如cuda
;
# 3. WASM
一种基于Web
的二进制格式,被Chrome
、Safari
、Firefox
、Edge
等主流浏览器支持,可以实现CPU
加速,替代普通的CPU
和WebGL
,速度快于JavaScript
,这是因为浏览器加载、解析、执行wasm
二进制文件的速度要比JS
软件包的速度快;WebGL
对于大多数模型而言速度均快于WASM
(posenet 4.5MB
、bodypix 4.6MB
、MobileNet V2 13MB
),但针对小模型(FaceMesh 2.8MB
、BlazeFace 0.4MB
),其性能会优于WebGL
,这是因为WebGL Shader
存在一定的开销成本。
# 4. CPU
性能最低且最简单的backend
,所有运算均在JS中完成,但会阻塞页面线程。
# 3. 如何高效阅读本书?
如果你是Web
前端开发工程师、前端AI
工程师、机器学习算法工程师或计算机相关专业以及任何对前端开发和深度学习感兴趣的人,那么我非常推荐你阅读本书,如果你是Web
前端和深度学习两大领域的小白,那你也完全可以阅读本书,这是因为在本书的基础知识篇中,我对书中案例的开发环境、相关基础知识做了非常详细的介绍,同时为了帮助大家更好的理解书中的内容,我将所有案例部署在了我的个人自建平台上,并将书中的所有代码进行了开源,希望这本书能够帮助到所有对智能前端开发感兴趣的朋友。
我整理了本书的核心技术栈和思维导图帮助大家更快的理清本书的知识脉络:
# 4. 沉浸式案例体验
# 加入书单 🛒
# 网站重构
在未来相当长的一段时间内,我会将自2018年写博客以来积攒的所有内容(包含已发布和未发布的)重新基于VuePress + Github Pages
进行重构,届时,所有内容将均以www.shipudong.com
为核心,然而由于《智能前端技术与实践》这本书中部分案例均被部署在该网站中,所以该核心网站暂不做任何修改。
如果大家对网站内容有任何建议,欢迎大家在评论区留言或直接私信,你的建议对我很重要~