ocr数字识别原理(ocr文字识别快捷指令)

导读:拍下快递单就能自动填充单号,拍下名片信息就能自动归类,拍下题目就能自动搜索到答案,你可知道,这些神奇的功能是如何实现的?今天,小编就带领大家一起探秘OCR,并带来一份使用飞桨(PaddlePaddle)快速实现OCR功能的详细教程。

ocr数字识别原理(ocr文字识别快捷指令)1.OCR技术概述

OCR(Optical Character Recognition),译为光学字符识别,是指通过扫描等光学输入方式将各种票据、报刊、书籍、文稿及其它印刷品的文字转化为图像信息,再利用文字识别技术将图像信息转化为可以使用的计算机输入技术。

在不久前的首届“中国人工智能·多媒体信息识别技术竞赛”中,百度一举斩获印刷文本OCR、人脸识别和地标识别三项任务中的A级证书,其中印刷文本OCR的成绩更是摘得冠军,且因成绩显著优于其他参赛团队,成为该任务94支参赛队伍中唯一获得A级证书的单位。

在OCR技术出现之前,要把大量的卡证牌照、票据表单、纸质文档上的文字信息录入电脑,只能依赖人工,效率低下,而且极易出错。

随着OCR技术的成熟,“人工数字化”的现状被打破,OCR自动化识别代替了人工录入,大大节约了人力成本,有效提升了业务效率。

OCR技术的应用场景非常广泛:

(1)拍照/截图识别

使用OCR技术,实现拍照文字识别、相册图片文字识别和截图文字识别,可应用于搜索、书摘、笔记、翻译等移动应用中,方便用户进行文本的提取或录入,有效提升产品易用性和用户使用体验。

识别结果:

(2)内容审核与监管

使用OCR技术,实现对图像中文字内容的提取,结合文本审核技术识别违规内容,提示相应风险,协助进行违规处理,可应用于电商广告审核、舆情监管等场景,帮助用户有效规避业务风险。

(图片来自网络)

识别结果:

(3)视频内容分析

使用OCR技术,实现对视频中的字幕、标题、弹幕等文字内容的检测和识别,并根据文字位置判断文字类型,可应用于视频分类和标签提取、视频内容审核、营销分析等场景,有效降低人力成本,控制业务风险。

(图片来自网络)

识别结果:

(4)纸质文档电子化

使用OCR技术,实现对各类医疗单据、金融财税票据、法律卷宗等纸质文档的识别,并返回文字在图片中的位置信息以便于进行比对、结构化等处理,可满足医疗、金融、政务、法务、教育等行业文档快速录入、存档和检索的需求,有效降低企业人力成本,提高信息录入效率。

ocr数字识别原理(ocr文字识别快捷指令)2.OCR技术原理

从整体上来说,OCR技术可以分为图像处理和文字识别两大阶段:

图像处理阶段:包含图像输入、图像预处理、版面分析、字符切割等子步骤。

文字识别阶段:包含特征提取、字符识别、版面恢复、后处理等子步骤。

流程图如下:

【文本检测】

图像输入:读取不同格式的图像文件。

图像预处理:包含灰度化、二值化、图像降噪、倾斜矫正等预处理步骤。

版面分析:针对左右两栏等特殊排版,进行版面分析并划分段落。

字符切割:对图像中的文本进行字符级的切割,尤其注意字符粘连等问题。

【文本识别】

特征提取:对字符图像提取关键特征并降维,用于后续的字符识别算法。

字符识别:依据特征向量,基于模版匹配分类法或深度神经网络分类法,识别出字符。

后处理:引入语言模型或人工检查,修正“分”和“兮”等形近字。

从整体上来看,OCR 的步骤繁多,涉及到的算法也很复杂。针对每一个步骤的每一个算法,都有单独的研究论文。如果从零开始做 OCR,将是一个十分浩大的工程。飞桨先从一个入门的实验开始,教您如何借助飞桨快速实现OCR功能。

ocr数字识别原理(ocr文字识别快捷指令)3.飞桨OCR快速上手

3.1任务介绍

本次实验的任务是最简单的任务:识别图片中单行英文字符,从这个简单的任务开始,主要是熟悉OCR的关键技术点,实际上OCR的技术有很多,一般都是文本检测 文本识别,比如经典的CRNN CTC、Seq2seq Attention,考虑到文本检测涉及到的内容比较复杂,我们主要以CTC(Connectionist Temporal Classification) 模型为例,前提假设文本已经检测到,限定在一个比较小的行内,然后如何来进行文本识别部分的内容。

编码部分,首先采用卷积将图片转为特征图, 然后再将特征图转为序列,通过双向GRU学习到序列特征。

3.2 数据示例

数据的下载和简单预处理都在data_reader.py中实现。

数据示例:

我们使用的训练和测试数据如下图所示,每张图片包含单行不定长的英文字符串,这些图片都是经过检测算法进行预框选处理的。

在训练集中,每张图片对应的label是汉字在词典中的索引。图1 对应的label如下所示:

80,84,68,82,83,72,78,77,68,67

在上边这个label中,80 表示字符Q的索引,67 表示英文字符D的索引。

3.3 数据准备

(1)训练集

我们需要把所有参与训练的图片放入同一个文件夹,暂且记为train_images。然后用一个list文件存放每张图片的信息,包括图片大小、图片名称和对应的label,这里暂记该list文件为train_list,其格式如下所示:

185 48 00508_0215.jpg 7740,5332,2369,3201,416248 48 00197_1893.jpg 6569338 48 00007_0219.jpg 4590,4788,3015,1994,3402,999,4553150 48 00107_4517.jpg 5936,3382,1437,3382…157 48 00387_0622.jpg 2397,1707,5919,1278

文件train_list,上述文件中的每一行表示一张图片,每行被空格分为四列,前两列分别表示图片的宽和高,第三列表示图片的名称,第四列表示该图片对应的sequence label。最终我们应有以下类似文件结构:

|-train_data |- train_list |- train_imags |- 00508_0215.jpg |- 00197_1893.jpg |- 00007_0219.jpg|…

在训练时,我们通过选项–train_images 和 –train_list 分别设置准备好的train_images 和train_list。

在data_reader.py中,会按照用户设置的DATA_SHAPE调整训练数据的高度。用户可以根据自己准备的训练数据,设置合适的DATA_SHAPE。如果使用默认的示例数据,则使用默认的DATA_SHAPE即可。

注:如果–train_images 和 –train_list都未设置或设置为None, data_reader.py会自动下载使用示例数据,并将其缓存到$HOME/.cache/paddle/dataset/ctc_data/data/ 路径下。

(2)测试集和评估集

测试集、评估集的准备方式与训练集相同。在训练阶段,测试集的路径通过train.py的选项–test_images和 –test_list 来设置。在评估时,评估集的路径通过eval.py的选项–input_images_dir 和–input_images_list 来设置。

在data_reader.py中,会按照用户设置的DATA_SHAPE调整测试图像的高度,所以测试图像可以有不同高度。但是,DATA_SHAPE需要和训练模型时保持严格一致。

(3)待预测数据集

预测支持三种形式的输入:

第一种:设置–input_images_dir和–input_images_list, 与训练集类似, 只不过list文件中的最后一列可以放任意占位字符或字符串,如下所示:

185 48 00508_0215.jpg s48 48 00197_1893.jpg s338 48 00007_0219.jpg s…

第二种:仅设置–input_images_list, 其中list文件中只需放图片的完整路径,如下所示:

data/test_images/00000.jpgdata/test_images/00001.jpgdata/test_images/00003.jpg

第三种:从stdin读入一张图片的path,然后进行一次inference.

在data_reader.py中,会按照用户设置的DATA_SHAPE调整预测图像的高度,所以预测图像可以有不同高度。但是,DATA_SHAPE需要和训练模型时保持严格一致。

3.4 模型训练

使用默认数据在GPU单卡上训练:

env CUDA_VISIBLE_DEVICES=0python train.py

使用默认数据在CPU上训练:

env python train.py–use_gpu False –parallel=False

使用默认数据在GPU多卡上训练:

env CUDA_VISIBLE_DEVICES=0,1,2,3 python train.py –parallel=True

默认模型使用的是CTC model,执行python train.py –help可查看更多使用方式和参数详细说明。

下图为使用默认参数在默认数据集上训练CTC model的收敛曲线,其中横坐标轴为训练迭代次数,纵轴为样本级错误率。其中,蓝线为训练集上的样本错误率,红线为测试集上的样本错误率。测试集上最低错误率为22.0%。

3.5 模型测试

通过以下命令调用评估脚本用指定数据集对模型进行评估:

env CUDA_VISIBLE_DEVICES=0 python eval.py \ –model_path=”./models/model_0″ \ –input_images_dir=”./eval_data/images/” \ –input_images_list=”./eval_data/eval_list”

执行python train.py –help可查看参数详细说明。

3.6 模型预测

从标准输入读取一张图片的路径,并对齐进行预测:

env CUDA_VISIBLE_DEVICES=0 python infer.py \ –model_path=”models/model_00044_15000″

执行上述命令进行预测的效果如下:

———– Configuration Arguments ———–use_gpu: Trueinput_images_dir: Noneinput_images_list: Nonemodel_path: /home/work/models/fluid/ocr_recognition/models/model_00052_15000————————————————Init model from: ./models/model_00052_15000.Please input the path of image: ./test_images/00001_0060.jpgresult: [3298 2371 4233 6514 2378 3298 2363]Please input the path of image: ./test_images/00001_0429.jpgresult: [2067 2067 8187 8477 5027 7191 2431 1462]

从文件中批量读取图片路径,并对其进行预测:

env CUDA_VISIBLE_DEVICES=0 python infer.py \ –model_path=”models/model_00044_15000″ \ –input_images_list=”data/test.list”

3.7 开源预训练模型

飞桨提供的经典的CTC 模型作为 OCR预训练模型,开发者们可以直接下载使用。

https://paddle-ocr-models.bj.bcebos.com/ocr_ctc.zip

注:在本章到示例中,均可通过修改CUDA_VISIBLE_DEVICES改变当前任务使用的显卡号。

特别说明:

以上就是经典OCR算法在飞桨的实现过程,我们也可以看到,这个评测下的数据集,一方面数量不是特别多,另一方面识别难度其实是比较大的(包含不规则的文字,背景噪声,严重的干扰等)。实际使用中,在一些比较受限的典型场景下,如果有丰富的训练数据集,而且数据集比较简单规整的情况下,实际效果会明显改善的,有兴趣的开发者可以自行尝试。

好啦,今天的OCR实战教程就到这里啦~!快快自己动手尝试下吧!

如果您想详细了解更多飞桨PaddlePaddle的相关内容,请参阅以下文档。

https://github.com/PaddlePaddle/models/tree/v1.5.1/PaddleCV/ocr_recognition

发表评论

登录后才能评论