你所在的位置: 首页 > 正文

大佬教你如何用Python建一个OCR服务器,附视频教程

2019-09-11 点击:1673

  大佬教你如何用Python建一个OCR服务器,附视频教程

  Why?

  OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文本,省去了重新键入的麻烦。

  开始的步骤

  开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端用户表示你的结果。本文之后将会详细介绍。除此之外,我们还需要添加一点后端代码来生成HTML表格,以及一些使用这些API的前段代码。这部分本文没有讲,但是你可以参阅源代码。

  准备好开始吧!

  首先,需要安装一些依赖项。这个过程也是非常有趣的。本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。

  下载依赖项

  我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。

  大佬教你如何用Python建一个OCR服务器,附视频教程

  发生了什么?

  简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些图像处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的编程语言,以及python-imaging库。

  说起图像,在将程序里面编辑图像之前我们还需要ImageMagick包。

  $ sudo apt-get install imagemagick# **构建Leptonica和Tesseract**

  再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器部分。

  Leptonica

  现在,开始安装Leptonica。

  大佬教你如何用Python建一个OCR服务器,附视频教程

  如果这是你第一次用tar的话,按照如下步骤操作:

  1. 用wget下载Leptonica的二进制文件

  2. 解压

  3. 用cd进入解压后的文件夹

  4. 运行autobuild和configure脚本安装

  5. 执行make命令build

  6. Build后安装

  7. 执行ldconfig创建相关的链接

  OK,Leptonica创建好了,接下来就是Tesseract了。

  Tesseract

  现在下载并安装Tesseract吧。

  大佬教你如何用Python建一个OCR服务器,附视频教程

  此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。

  环境变量

  我们需要设置一个环境变量来访问Tesseract数据:

  $ export TESSDATA_PREFIX=/usr/local/share/

  Tesseract包

  最后安装一下Tesseract相关的语言包:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

  1. 接受图像URL

  2. 能够对图像进行字符识别

  搭建Web服务器

  最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract。想要快点的话,就运行_app.sh脚本,否则,就得获取代码/结构的模板,然后运行一下命令:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  注意:Flask模板是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。

  安装OCR引擎

  现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  非常好!主方法process_image()的功能是锐化图像文本。现在,这个模块已经可以用了。

  可选项:为你的OCR引擎创建一个CLI工具

  做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。

  回到服务器

  既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到app.py文件:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  确保引入的下列包是最新的:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  最后,添加一行API版本号:

  _VERSION = 1 # API version

  从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。

  注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。

  测试

  运行你的程序:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  然后,在另外一个终端运行:

  $ curl -X POST -d '{"image_url": "some_url"}' -H "Content-Type: application/json"

  例子

  大佬教你如何用Python建一个OCR服务器,附视频教程

  前端

  现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了。

  大佬教你如何用Python建一个OCR服务器,附视频教程

  用下面的样本来测试一下:

  大佬教你如何用Python建一个OCR服务器,附视频教程

  大佬教你如何用Python建一个OCR服务器,附视频教程

  大佬教你如何用Python建一个OCR服务器,附视频教程

bbin官网注册 版权所有© www.dongfangchuanbo.com 技术支持:bbin官网注册 | 网站地图