在iOS上实现TensorFlow Attention OCR

我已经成功地训练了(使用Inception V3权重作为初始化)这里描述的注意OCR模型: https : //github.com/tensorflow/models/tree/master/attention_ocr ,并将生成的检查点文件冻结成graphics。 如何使用iOS上的C ++ API实现这个networking?

先谢谢你。

正如其他人所build议的,您可以使用一些现有的iOS演示( 1,2 )作为起点,但请密切注意以下细节:

  1. 确保使用正确的工具“冻结”模型。 SavedModel是Tensorflow模型的通用序列化格式。
  2. 模型导出脚本通常可以做某种input规范化。 请注意,Model.create_base函数需要一个形状为[batch_size,height,width,channels]的tf.float32张量,其值归一化为[-1.25,1.25] 。 如果您将图像归一化作为TensorFlow计算图的一部分,请确保图像通过非标准化,反之亦然。
  3. 要获得input/输出张量的名称,您可以简单地打印input/输出张量,例如在导出脚本中的某处:

    data_images = tf.placeholder(dtype=tf.float32, shape=[batch_size, height, width, channels], name='normalized_input_images') endpoints = model.create_base(data_images, labels_one_hot=None) print(data_images, endpoints.predicted_chars, endpoints.predicted_scores)