tensorflow的模型使用flask制作windows系统服务

简介: tensorflow的模型使用flask制作windows系统服务

搜罗到两种方案,经测试都可正常运行。这两种方案各有利弊,可根据实际需求选择。

  1. nssm的方案
    将tensorflow模型的推理逻辑制作成flask服务,假设文件为app.py。其中的model_predict需要换成用户自己的推理模块。
# app.py文件
from flask import Flask, request
import numpy as np
from tensorflow.python.saved_model import tag_constants
from tensorflow.contrib.tensor_forest.python import tensor_forest
from tensorflow.python.ops import resources
import tensorflow.compat.v1 as tf
import json
from gevent import pywsgi
import multiprocessing
from multiprocessing import freeze_support
from datetime import datetime
import platform
app = Flask(__name__)
class predict():
    def __init__(self, model_path):
        # with tf.Session() as self.sess:
        self.sess = tf.Session()
        meta_graph_def = tf.saved_model.loader.load(self.sess, [tag_constants.SERVING], model_path + '/001/')
        signature = meta_graph_def.signature_def
        self.x = signature['prediction'].inputs['input'].name
        self.result = signature['prediction'].outputs['output'].name
    def run(self, input_data):
        _input_data = []
        _input_data.append(input_data)
        y = self.sess.run(self.result, feed_dict={self.x: _input_data})
        return y
@app.route('/')
def hello():
    return 'hello world'
@app.route('/predict', methods=['POST'])
def model_predict():
    input_json = request.get_json()
    method = input_json['method']
    input_data = input_json['data']
    if method != "inference":
        results = {'ret_code':101,'ret_message':'字段错误'}
        return json.dumps(results,ensure_ascii=False)
    input_arr = np.array(input_data)
    try:
        result = pred_infer.run(input_arr)[0]
        if (result[1] > 0.5):
            ret_status = 'good'
        else:
            ret_status = 'bad'
        ret_code = 100
        results = {'ret_code':ret_code,'ret_message':'处理成功','result':result.tolist(),'ret_status':ret_status}
    except:
        ret_code =  201
        results = {'ret_code':ret_code,'ret_message':'参数错误'}
    results_json = json.dumps(results,ensure_ascii=False)
    return results_json
#model_path = '.\\models\\healthy\\model_state'
model_path = 'D:\\YourModelPath\\models\\model_state'
pred_infer = predict(model_path)
def MyServer(host, port):
    server = pywsgi.WSGIServer((host, port), app)
    server.serve_forever()
if __name__ == '__main__':
    MyServer('0.0.0.0', 8088)
  1. 将python文件打包成exe文件。
D:\Python36\Scripts\pyinstaller.exe -F .\app.py #dist目录下生成app.exe
  1. 命令行测试app.exe能否正常运行,提供推理服务。
    下载nssm,使用nssm实现注册/开启/关闭/更新/移除服务。
nssm\win32\nssm.exe install  appServer  #注册服务,appServer是服务名
nssm\win32\nssm.exe start  appServer    #开启服务,appServer是服务名
  1. pywin32的方案
    将tensorflow模型的推理逻辑改写成flask服务,假设文件为app.py(推理模块)和server.py(服务模块)。
# app.py文件
from flask import Flask, request
import numpy as np
from tensorflow.python.saved_model import tag_constants
from tensorflow.contrib.tensor_forest.python import tensor_forest
from tensorflow.python.ops import resources
import tensorflow.compat.v1 as tf
import json
from gevent import pywsgi
import multiprocessing
from multiprocessing import freeze_support
from datetime import datetime
import platform
app = Flask(__name__)
class predict():
    def __init__(self, model_path):
        # with tf.Session() as self.sess:
        self.sess = tf.Session()
        meta_graph_def = tf.saved_model.loader.load(self.sess, [tag_constants.SERVING], model_path + '/001/')
        signature = meta_graph_def.signature_def
        self.x = signature['prediction'].inputs['input'].name
        self.result = signature['prediction'].outputs['output'].name
    def run(self, input_data):
        _input_data = []
        _input_data.append(input_data)
        y = self.sess.run(self.result, feed_dict={self.x: _input_data})
        return y
@app.route('/')
def hello():
    return 'hello world'
@app.route('/predict', methods=['POST'])
def model_predict():
    input_json = request.get_json()
    method = input_json['method']
    input_data = input_json['data']
    if method != "inference":
        results = {'ret_code':101,'ret_message':'字段错误'}
        return json.dumps(results,ensure_ascii=False)
    input_arr = np.array(input_data)
    try:
        result = pred_infer.run(input_arr)[0]
        if (result[1] > 0.5):
            ret_status = 'good'
        else:
            ret_status = 'bad'
        ret_code = 100
        results = {'ret_code':ret_code,'ret_message':'处理成功','result':result.tolist(),'ret_status':ret_status}
    except:
        ret_code =  201
        results = {'ret_code':ret_code,'ret_message':'参数错误'}
    results_json = json.dumps(results,ensure_ascii=False)
    return results_json
#model_path = '.\\models\\healthy\\model_state'
model_path = 'D:\\YourModelPath\\models\\model_state'
pred_infer = predict(model_path)
  1. 就是把WSGIServer调用的部分放到server.py中。拆分的原因很明显,解耦合,方便其他模型做服务时,只在app.py内改动。特别注意, 模型的路径需要用绝对路径,相对路径可以注册服务,但无法正常启动服务(闪退)。
# server.py文件
import win32serviceutil
from gevent.pywsgi import WSGIServer
from app import app
class Service(win32serviceutil.ServiceFramework):
    # 服务名
    _svc_name_ = "flask_gevent_service_test"
    # 显示服务名
    _svc_display_name_ = "flask gevent service test display name"
    # 描述
    _svc_description_ = "flask gevent service test description"
    def __init__(self, *args):
        super().__init__(*args)
        # host和ip绑定
        self.http_server = WSGIServer(('127.0.0.1', 8088), app)
        self.SvcStop = self.http_server.stop
        self.SvcDoRun = self.http_server.serve_forever
if __name__ == '__main__':
    win32serviceutil.HandleCommandLine(Service)
  1. 使用python自带的pythonServer实现注册/开启/关闭/更新/移除服务。
python server.py install  #注册服务
python server.py start    #开启服务
  1. 总结:在某些情况下无法使用nssm的方案,比如防火墙拦截等,这时可选择第二种方案。当然第二种方案的执行命令仍然需要python环境包,可以在此基础上将app.py和server.py两个文件打包成一个exe,方便移植。这部分操作读者可以参考第一种方案中的打包方法自行验证。
相关文章
|
7月前
|
安全 数据安全/隐私保护 Windows
如何在Windows 10系统中查看已连接WiFi密码-亲测可用-优雅草卓伊凡
如何在Windows 10系统中查看已连接WiFi密码-亲测可用-优雅草卓伊凡
314 15
如何在Windows 10系统中查看已连接WiFi密码-亲测可用-优雅草卓伊凡
|
7月前
|
关系型数据库 虚拟化 UED
Omnissa Horizon Windows OS Optimization Tool 2503 - Windows 系统映像优化工具
Omnissa Horizon Windows OS Optimization Tool 2503 - Windows 系统映像优化工具
262 7
Omnissa Horizon Windows OS Optimization Tool 2503 - Windows 系统映像优化工具
|
2月前
|
运维 安全 Linux
【清爽加速】Windows 11 Pro 24H2-Emmy精简系统
“清爽加速”Windows 11 Pro 24H2 针对老旧或低配设备,通过精简系统、优化服务与简化装机流程,降低资源占用,提升运行流畅度,兼顾安全性与稳定性,让老设备也能轻松应对日常办公与轻度娱乐需求。
【清爽加速】Windows 11 Pro 24H2-Emmy精简系统
|
2月前
|
安全 数据安全/隐私保护 Windows
ZyperWin++使用教程!让Windows更丝滑!c盘飘红一键搞定!ZyperWin++解决系统优化、Office安装和系统激活
ZyperWin++是一款仅5MB的开源免费Windows优化工具,支持快速优化、自定义设置与垃圾清理,兼具系统加速、隐私保护、Office安装等功能,轻便无广告,小白也能轻松上手,是提升电脑性能的全能管家。
714 0
|
2月前
|
安全 搜索推荐 开发者
【适度精简】Windows 7 旗舰版-emmy精简系统
Windows 7旗舰版因硬件占用高、冗余组件多、兼容性差及缺乏安全更新等问题,逐渐难以满足用户需求。适度精简版通过去除无用组件、优化性能与安全性,提升老旧设备运行效率,增强兼容性与稳定性,同时保留用户熟悉的操作界面,降低学习成本,满足个性化需求,延续Windows 7的实用价值。
|
11月前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
907 55
|
3月前
|
Ubuntu Linux Windows
windows11系统安装ubuntu系统详细步骤
安装后,您可以直接从商店启动应用程序来源
619 0
|
5月前
|
Ubuntu Linux 数据安全/隐私保护
Windows中安装WSL 2和Ubuntu系统的教程
回看这一路,有趣吧?你已经跨界成为了一个Windows和Linux的桥梁。期待在代码的世界里,把一切玩得风生水起!
260 13
|
10月前
|
安全 前端开发 数据库
Python 语言结合 Flask 框架来实现一个基础的代购商品管理、用户下单等功能的简易系统
这是一个使用 Python 和 Flask 框架实现的简易代购系统示例,涵盖商品管理、用户注册登录、订单创建及查看等功能。通过 SQLAlchemy 进行数据库操作,支持添加商品、展示详情、库存管理等。用户可注册登录并下单,系统会检查库存并记录订单。此代码仅为参考,实际应用需进一步完善,如增强安全性、集成支付接口、优化界面等。
|
4月前
|
持续交付 Windows
如何使用Sysprep准备Windows系统并使用自动应答
通过Sysprep准备Windows系统,可实现SID重置与系统定制。进入Sysprep后,可安装软件、设置默认桌面文件,并使用Windows SIM创建应答文件以实现自动化部署。适用于系统克隆与批量部署场景。

热门文章

最新文章