English | 中文版
 
首页 > 佳讯飞鸿技术论坛 > 论文集锦

基于边云协同技术的高速铁路“工电供”综合运维一体化管理平台研究与探索

2019-11-18

作者:李斌,佳讯飞鸿(北京)智能科技研究院,北京,100044

关键词:综合运维一体化;管理平台;边云协同;安全管控;

1、我国高速铁路运营维护管理现状

截止2018年底,中国高速铁路营业里程已达2.9万公里,占全世界总里程的超过2/3,成为世界上高铁里程最长、运输密度最高、成网运营场景最复杂的国家。管好用好世界上最发达的现代化高铁网,实现运营管理质量世界领先,成为铁路人的重要责任。

经过10多年总结高铁线路运营维护的经验和不断发展探索,已经初步构建了一套科学有效的基础设备设施管理维护体系。但是在“工电供”结合部的运维工作中,仍然面临着如下几大问题:

1)修程修制方面:维修规则“工电供”设备检修周期和标准不统一。

2)管界方面:“工电供” 三专业管界划分不一致。

3)生产组织方面:天窗申请不统一、配合单位不统一、无法有效联动。

4)人员方面:“工电供” 专业维修人员、综合性维修人员缺乏。

5)作业出行方面:各专业轨道车无法共享、影响出行效率。

6)应急方面:审批手续繁琐、联动少、无法满足一体化应急需要。

7)设备设施方面:设备设施工况信息采集覆盖不全面,采集、传输、分析、处理方式传统。

8)资源共享方面:“固定”设备、“移动体”信息,现场施工人员信息无法共享,资源利用率不高。

2 高速铁路“工电供”综合运维一体化管理

2.1.我国高速铁路运营特点及运维要求

我国高速铁路的运营特点,即:1、大运量、高负荷的条件下组织运输;2、运输组织安排的规律性;3、高速列车运行的准时性;4、旅行条件的便捷性。上述运营特点决定了对“工电供”三专业综合运维,尤其是“工电供”结合部的基础设备设施运维提出了更高的要求。第一、需要建立完善而高度现代化的综合运维体系;第二、运维工作只能在综合维修天窗时间内进行;第三、综合维修天窗的天窗时间应相对规定;第四、尽量减少节假日维修作业,保运输安全和运输任务。

2.2.高速铁路综合运维一体化管理组织模式

世界其他高速铁路发达国家在运维管理方面,普通采用扁平化组织架构,“管理、检测、养护、维修”适度分离,在运维模式方面,普遍朝着“集中维修、综合维修、专业协同作业”的方向发展。铁路总公司根据我国高速铁路运维管理实践情况,按照“专业引领、站段协调、车间组织、工区落实、条块结合、生产一体”的发展思路,提出构建“七统一、一联合”的高速铁路综合运维一体化管理组织模式,即:统一组织架构、统一天窗安排、统一生产计划、统一作业组织、统一防护管理、统一应急处置、统一生产平台和联合调度。构建检测监测三级管理架构,日常养护三级管理架构,如图1所示。

  
                                                     图1综合运维一体化三级管理框架

2.3.高速铁路“工电供”综合运维一体化管理平台

结合目前“工电供”三个专业对于综合运维一体化的需求,对于高效施工,资源共享,统一决策、联合调度的需求,我们提出基于“边云协同”技术的高速铁路“工电供”综合运维一体化管理平台。如图2所示。

   

图2综合运维一体化管理平台框架

3、边云协同关键技术

3.1边缘计算的概念

边缘计算是在靠近设备、设施或数据源头的网络边缘侧,融合网络、计算、存储、应用核心能力的分布式开放平台,就近提供边缘智能服务,满足行业数字化在敏捷联接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。边缘是一个逻辑概念,而并非一个物理划分。同时IIC也给出了边缘计算需要考虑的共性能力,包括分布式数据管理、数据分析、统一业务编排、连接能力和安全性,从应用角度来看,边缘的位置取决于业务问题需要解决的“关键目标”。

3.2边缘计算的特点

1)联接性。联接性是边缘计算的基础。所联接物理对象的多样性及应用场景的多样性,需要边缘计算具备丰富的联接功能,如各种网络接口、网络协议、网络拓扑、网络部署与配置、网络管理与维护。

2)数据入口。边缘计算作为物理世界到数字世界的第一入口,拥有大量、实时、完整的数据,可基于数据全生命周期进行管理与价值创造,将更好的支撑预测性维护、资产管理与效率提升等创新应用;同时,作为数据第一入口,边缘计算也需要满足数据实时性、确定性、完整性、准确性、多样性等多维的需求。

3)约束性。边缘计算中心需适配工业现场相对恶劣的工作条件与运行环境,尤其是铁路多地域、多应用场景等。在工业互联(铁路运维)场景下,对边缘计算中心(设备)的功耗、成本、空间也有较高的要求。需要考虑通过软硬件集成与优化,以适配各种条件约束,支撑垂直行业数字化多样性场景。

4)分布性。边缘计算实际部署天然具备分布式特征。这要求边缘计算支持分布式计算与存储、实现分布式资源的动态调度与统一管理、支撑分布式智能、具备分布式安全等能力。

5)融合性。OT与ICT的融合是行业数字化转型的重要基础。边缘计算作为“OICT”融合与协同的关键承载,需要支持在联接、数据、管理、控制、应用、安全等方面的协同。

3.3边云协同的能力

边缘计算不是单一的部件,也不是单一的层次,而是涉及到EC-IaaS、EC-MaaS、EC-CaaS、EC-PaaS、EC-SaaS的端到端开放平台。典型的边缘计算中心一般涉及网络、虚拟化资源、RTOS、数据面、控制面、管理面、行业应用等,其中网络、虚拟化资源、RTOS等属于EC-IaaS能力,数据面、控制面、管理面等属于EC-PaaS能力,行业应用属于EC-SaaS范畴。EC-IaaS与云平台IaaS应可实现对网络、虚拟化资源、安全等的资源协同;EC-PaaS与云平台PaaS应可实现数据协同、智能协同、应用管理协同、业务管理协同;EC-SaaS与云平台SaaS应可实现服务协同。边云协同关系图,如图3所示。

1)资源协同:边缘计算中心提供计算、存储、网络、虚拟化等基础设施资源、具有本地资源调度管理能力,同时可与云平台协同,接受并执行云平台资源调度管理策略,包括边缘计算中心的设备管理、资源管理以及网络联接管理。

2)数据协同:边缘计算中心主要负责现场/终端数据的采集, 按照规则或数据模型对数据进行初步处理与分析,并将处理结果以及相关数据上传给云平台;云平台提供海量数据的存储、分析与价值挖掘。边缘侧与云平台的数据协同,支持数据在边缘侧与云平台之间可控有序流动,形成完整的数据流转路径, 高效低成本对数据进行生命周期管理与价值挖掘。

3)智能协同:边缘计算中心按照人工智能模型执行推理、处理、分析,实现分布式智能;云平台开展人工智能的集中式模型训练,并将模型下发边缘计算中心。

4)应用管理协同:边缘计算中心提供应用部署与运行环境,并对本节点多个应用的生命周期进行管理调度;云平台主要提供应用开发、测试环境,以及应用的生命周期管理能力。业务管理协同:边缘计算中心提供模块化、微服务化的应用/数字孪生/网络等应用实例;云平台主要提供按照客户需求实现应用/数字孪生/网络等的业务编排能力。

5)服务协同:边缘计算中心按照云平台策略实现部分EC-SaaS服务,通过EC-SaaS与云平台SaaS的协同实现面向客户的按需SaaS服务;云平台主要提供SaaS服务在云平台和边缘计算中心的服务分布策略,以及云平台承担的SaaS服务能力。

   

 图3边云协同关系图

3.3边云协同层次划分

3.3.1边缘计算中心

基础设施能力:需要包含计算、存储、网络、各类加速器(如AI加速器),以及虚拟化能力;同时考虑嵌入式功能对时延等方面的特殊要求,需要直接与硬件通信,而非通过虚拟化资源。

边缘计算中心能力:需要包含数据协议模块、数据处理与分析模块,数据协议模块要求可扩展以支撑各类复杂的行业通信协议;数据处理与分析模块需要考虑时序数据库、数据预处理、流分析、函数计算、分布式人工智能及推理等方面能力。

管理与安全能力:管理包括边缘计算中心设备自身运行的管理、基础设施资源管理、边缘应用、业务的生命周期管理,以及边缘计算中心南向所连接的终端管理等;安全需要考虑多层次安全,包括芯片级、操作系统级、平台级、应用级等。

3.3.2云计算平台

云平台能力:包括边缘接入、数据处理与分析、边缘管理与业务编排。入云设备或者系统的边缘接入能力;数据处理与分析需要考虑时序数据库、数据整形、筛选、大数据分析、流分析、人工智能集中训练与推理等方面能力;边缘管理与业务编排需要考虑边缘节点设备、基础设施资源、南向终端、应用、业务等生命周期管理,以及各类增值应用、网络应用的业务编排

3.3.3边缘计算与云计算的关系

1)云计算擅长全局性、非实时、长周期的大数据处理与分析,能够在长周期维护、业务决策支撑等领域发挥优势;边缘计算更适用局部性、实时、短周期数据的处理与分析,能更好地支撑本地业务的实时智能化决策与执行。

2)边缘计算解决了“最后一公里”云原生应用的供应问题,成为了云计算在未来发展中的重要落地支撑。

3)云平台学习、边缘技术中心执行,是处理复杂问题的大致思路。为了处理好多种数据源和多重变量,边云协同需要综合考虑处理速度、可靠性、安全性、带宽需求等问题。

4)在边云协同的过程中,不同层次的边缘技术中心与云平台之间构成了多层结构,应用程序的工作负载通过在各个层次之间动态分配资源来调度。

因此,边缘计算与云计算之间不是替代关系,而是互补协同关系。边缘计算与云计算需要通过紧密协同才能更好的满足各种业务需求场景的匹配,从而放大边缘计算和云计算的应用价值。边缘计算既靠近执行单元,更是云平台所需高价值数据的采集和初步处理单元,可以更好地支撑云平台侧的应用;反之,云计算通过大数据分析优化输出的业务规则或模型可以下发到边缘侧,边缘计算基于新的业务规则或模型运行。

4、“工电供”综合运维典型场景举例

目前各铁路局的工务、电务、供电专业是高速铁路基础设备设施的专业委管单位,由于其运维工作和业务应用的特点,以及过程数据保密等特殊需求,要求必须采用铁路专网通信方案,主要运维业务数据和过程数据在铁路专网中进行传输和处理。从车站咽喉区多专业、多工种的联合施工作业的全流程数据,到施工作业安全质量卡控中的采用人脸识别、身份特征识别的技术采集到的多源数据信息,还有工务专业隧道边坡降雨造成的次生灾害视频监控数据,电务专业通信信号机房机器人视频巡检视频数据、供电专业6C系统生成的庞大图像视频数据,很多业务应用和数据处理,分析功能已经在私有云平台完成部署,部分已经开展基于云平台的机器视觉模型训练工作。

典型的“工电供”综合运维场景就是车站咽喉区的施工安全全过程管控。此场景绝大多数是本地视频业务,此时,部署边缘计算中心对于这种专网监控视频业务就很有意义,通过边缘计算中心筛选出监控视频或者图像中变化的部分或一些有意义的视频或者图像片段,向服务器回传,把价值不高的监控视频或者图像就地缓存在边缘计算中心的服务器中,一方面提高了边缘侧准确识别和快速响应的能力,另一方面降低边缘计算中心视频/图片的上传盈平台所占用的数据带宽和经济成本。

车站咽喉区安全管控系统基于GIS技术、视频监控技术、融合通信技术和无人机技术,实现基于位置的现场管理和基于音视频业务的现场安全督导。构建一套能够“看得到、听得清、能指挥、可协作”的铁路综合监控系统,实现语音调度、可视调度、一键视频集等会多部门联动,并具备与既有各业务部门的视频监控系统对接能力,实现既有摄像机视频调看的功能。咽喉区安全管控系统组网架构,如图4所示。

   

图4车站咽喉区安全管控系统组网架构

通过在铁路沿线重点区域,如车站咽喉区,部署边缘智能视频监控的设备,实时监控识别进入监控区域的路外人员或非工作人员,并联动报警系统通知相关负责人员,同时发出声光提示,警示入侵人员,保证重点区域安全运行。同时将关键视频数据,进行分级管理,重要级别高级实时上传至云平台,次重要级别和非重要信息暂时缓存在边缘计算中心,供安全管理人员和专业运维人员调看和下载。

面向全作业流程,施工全过程的管控,对重点作业区域、作业进度、作业规范化进行实时调看,监管现场作业是否符合相关安全作业规范,监控终端可以通过声音对现场人员进行安全提示,值班人员也可以通过利用话筒对现场人员进行喊话。重点监控内容:不安全行为:值班和瞭望中离岗、玩手机、睡觉;作业中危险行为等;违反作业安全规范:防护失效、超范围施工、现场作业标准化不执行等。边缘计算中心实现了初步的通信协议解析,多设备接入,边缘音视频处理等辅助决策功能;云平台实现了边缘接入、数据处理与分析、边缘管理与业务编排等功能。

5、结束语

通过对“七统一、一联合”的生产管理组织模式和“工电供”综合运维一体化三级管理架构的论述,结合当前在各个前沿行业广泛应用的“边云协同”技术的详细阐述,提出来基于“边云协同”技术的高速铁路“工电供”综合运维一体化管理平台建设思路。研究边云协同技术如何在车站咽喉区安全管控应用场景落地,尝试探索“工电供”综合运维一体化的新模式,从而提升综合运维的效率和质量。后续工作中,将重点研究“工电供”三个专业的应用系统如何实现边缘部署和向铁路私有云平台迁移,以及多专业、多工种,多系统的数据信息共享机制,从而实现运维工作由“计划修”向“状态修”、“预测性”演进。


参考文献:

[1]铁总办[2017]63号中国铁路总公司关于推进高速铁路综合维修生产一体化管理的指导意见。

[2]铁总工电[2018]148号 中国铁路总公司关于加快推进高速铁路综合维修生产一体化管理的通知。

[3]铁总工电[2019]45号 中国铁路总公司关于深化高速铁路综合维修生产一体化改革的指导意见。

[4]上铁工[2018]543号 中国铁路上海局集团有限公司等部门关于深入推进高速铁路综合维修生产生活一体化管理的实施意见。

[5]工业互联网联盟《Introduction to Edge Computing in IIoT》.

[6]工业互联网产业联盟《工业互联网平台白皮书 (2017)》。

推荐阅读 Recommended
关于我们
佳讯概况
文化理念
组织结构
社会责任
产品与解决方案
产品
行业
解决方案
典型案例
佳讯战“疫”
解决方案
媒体报道
联系方式
新闻中心
佳讯动态
媒体报道
佳讯飞鸿技术论坛
论文集锦
投资者关系
致投资者的一封信
公司治理
公司公告
股价信息
投资者交流
路演及业绩说明会
常见Q&A
与我们联系
售后支持
售后理念
售后网络
联系我们
佳讯英才
招贤纳士
人才理念

京公网安备11010802010272号   Copyright 2008 北京佳讯飞鸿电气股份有限公司