发布信息

任务分配方法、装置及电子设备与流程

作者:admin      2022-08-31 10:32:29     844



计算;推算;计数设备的制造及其应用技术1.本技术涉及边缘计算领域,具体而言,涉及一种任务分配方法、装置及电子设备。背景技术:2.深度神经网络的发展,为新一代智能应用创造了新的途径。dnn功能强大,在通信网络中广泛应用成为趋势。边缘和云计算成为计算机视觉和视频分析等计算密集型dnn任务的选择。例如,自动驾驶汽车中,摄像头持续监控周围场景,并将视频传输到服务器进行视频分析,并将控制信号反馈给踏板和方向盘。3.实现智能应用的一个重大挑战就是复杂神经网络的计算量带来的时延,根据现有的研究表明,虽然云具有强大的计算能力,但是时延较大,边缘计算具有时延小的优点,然而受到计算能力和能量的限制,不能完全取代云计算。4.针对上述的问题,目前尚未提出有效的解决方案。技术实现要素:5.本技术实施例提供了一种任务分配方法、装置及电子设备,以至少解决现有的边缘计算在处理复杂神经网络时存在时延大,从而导致用户体验感较差的技术问题。6.根据本技术实施例的一个方面,提供了一种任务分配方法,包括:获取终端设备发起的神经网络的计算任务;确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;依据分配策略,将计算任务中的子任务分配至多个边缘节点。7.可选地,获取终端设备发起的神经网络的计算任务,包括:将神经网络映射成有向无环图的形式;将有向无环图中的每一层节点进行划分,得到多个节点群组;依据多个节点群组中的每个节点群组对应的子任务,确定神经网络的计算任务。8.可选地,状态信息还包括:多个边缘节点在边缘服务器中的位置,以及多个边缘节点对应的最早可用时间。9.可选地,确定计算任务的分配策略,包括:获取边缘服务器对应的网络参数信息,以及执行计算任务所需的目标计算资源,其中,网络参数信息包括以下至少之一:网络的带宽和网络的信道条件;至少依据网络参数信息、目标计算资源和多个边缘节点的状态信息,确定计算任务的分配策略。10.可选地,将计算任务中的子任务分配至多个边缘节点,包括:依据分配策略对计算任务进行切分,得到多个子任务;将多个子任务分发至边缘服务器中的多个边缘节点中进行计算。11.可选地,将计算任务中的子任务分配至多个边缘节点之后,方法还包括:获取计算任务的执行顺序;控制多个边缘节点按照执行顺序执行多个子任务;在边缘服务器下载神经网络的计算任务的情况下,接收多个边缘节点返回的执行结果。12.可选地,接收多个边缘节点返回的执行结果之后,方法还包括:将执行结果传输给终端设备。13.根据本技术实施例的另一方面,还提供了一种任务分配装置,包括:获取模块,用于获取终端设备发起的神经网络的计算任务;第一确定模块,用于确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;第二确定模块,依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;分配模块,用于依据分配策略,将计算任务中的子任务分配至多个边缘节点。14.根据本技术实施例的又一方面,还提供了一种电子设备,包括:存储器,用于存储程序指令;处理器,与存储器连接,用于执行实现以下功能的程序指令:获取终端设备发起的神经网络的计算任务;确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;依据分配策略,将计算任务中的子任务分配至多个边缘节点。15.根据本技术实施例的再一方面,还提供了一种非易失性存储介质,该非易失性存储介质包括存储的程序,其中,在程序运行时控制该非易失性存储介质所在设备执行上述任务分配方法。16.在本技术实施例中,通过获取终端设备发起的神经网络的计算任务;确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;依据分配策略,将计算任务中的子任务分配至多个边缘节点,达到了利用多个边缘节点处理计算任务的目的,从而实现了降低计算时延、提高计算效率的技术效果,进而解决了现有的边缘计算在处理复杂神经网络时存在时延大,从而导致用户体验感较差的技术问题。附图说明17.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:18.图1是根据本技术实施例的一种用于实现任务分配方法的计算机终端(或电子设备)的硬件结构框图;19.图2是根据本技术实施例的一种任务分配方法的流程图;20.图3a是根据本技术实施例的一种确定神经网络的计算任务的流程图;21.图3b是根据本技术实施例的一种可选的神经网络对应的有向无环图;22.图3c是根据本技术实施例的另一种可选的神经网络对应的有向无环图;23.图4是根据本技术实施例的一种接收多个边缘节点返回的执行结果的流程图;24.图5是根据本技术实施例的一种任务分配装置的结构图;25.图6是根据本技术实施例的一种任务分配流程图。具体实施方式26.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分的实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本技术保护的范围。27.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。28.为了给用户带来更好的体验,降低时延,改善用户的服务质量,将dnn(即深度神经网络)的推理任务在云服务器和边缘服务器进行分割,共同完成推理成为一种可行方法,在本技术实施例中,推理任务可以理解为计算任务。神经网络分割后带来的问题是推理的可靠性的问题,由于设备状态、通信环境等因素的影响,dnn协作推理可能会由于设备下线、通信终端等问题失败,因此如何最大化dnn推理的可靠性是一个需要研究的问题。29.目前,虽然很多学者已经提出了有关dnn神经网络推理加速的相关算法,但是在云服务器和边端服务器协同中如何在时延和推理可靠度的约束下,如何降低系统的整体能耗仍然需要进行深入地探讨研究。30.本技术实施例所提供的任务分配方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现任务分配方法的计算机终端(或电子设备)的硬件结构框图。如图1所示,计算机终端10(或电子设备10)可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器(处理器可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为i/o接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。31.应当注意到的是上述一个或多个处理器和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或电子设备)中的其他元件中的任意一个内。如本技术实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。32.存储器104可用于存储应用软件的软件程序以及模块,如本技术实施例中的任务分配方法对应的程序指令/数据存储装置,处理器通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的任务分配方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。33.传输模块106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(network interface controller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。34.显示器可以例如触摸屏式的液晶显示器(lcd),该液晶显示器可使得用户能够与计算机终端10(或电子设备)的用户界面进行交互。35.此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或电子设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或电子设备)中的部件的类型。36.在上述运行环境下,本技术实施例提供了一种任务分配方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。37.图2是根据本技术实施例的一种任务分配方法的流程图,如图2所示,该方法包括如下步骤:38.步骤s202,获取终端设备发起的神经网络的计算任务;39.步骤s204,确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;40.步骤s206,依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;41.步骤s208,依据分配策略,将计算任务中的子任务分配至多个边缘节点。42.在上述任务分配方法中的步骤s202中,获取终端设备发起的神经网络的计算任务,如图3a所示的流程图,具体包括如下步骤:43.步骤s302,将神经网络映射成有向无环图的形式;44.步骤s304,将有向无环图中的每一层节点进行划分,得到多个节点群组;45.步骤s306,依据多个节点群组中的每个节点群组对应的子任务,确定神经网络的计算任务。46.在上述步骤s302至步骤s306中,由于神经网络结构越来越复杂,从链式结构到非链式的网络,因此先将一个神经网络建模成有向无环图的形式,如图3b和图3c所示的有向无环图,以层作为可分割的最小单元,例如,在图3c中,v2至v5作为同一层的节点,即v2至v5为一个节点群组,同理,v6至v8为一个节点群组,v9为一个节点群组。47.计算边缘节点的设备可靠性,设备和通信的可靠性分别服从泊松分布,对执行每个神经网络中相同节点群组的边缘节点的可靠性使用主动复制方案,通过确定每个边缘节点的设备可靠性,即可确定整个计算任务完成的可靠性。在任务调度上,使用严格调度,在每一层的所有节点执行完成后再执行下一层的节点,根据每一层中各个节点的执行时长,可以得到执行整个神经网络所需的总时长。48.在上述任务分配方法中的步骤s304中,状态信息还包括:多个边缘节点在边缘服务器中的位置,以及多个边缘节点对应的最早可用时间。49.在本技术实施例中,可使用深度强化学习将其建模成一个mdp过程,该mdp过程即为马尔科夫决策过程,其可以定义为,在时间序列上,通过已知条件和某种策略,得到目标函数的决策序列:50.状态s:表示边缘节点的状态信息,该状态信息包括:边缘节点可用的计算资源、边缘节点在边缘服务器中的位置,以及边缘节点最早可用时间,该边缘节点的最早可用时间可依据该边缘节点上次执行计算任务的开始时间和计算时长确定,具体地,根据该边缘节点上次执行计算任务的开始时间和计算时长,可得到该边缘节点执行上次计算任务的结束时间,该结束时间即可认为是该边缘节点的最早可用时间。51.动作a:i表示神经网络的节点,j表示边缘服务器或云服务器中的计算节点,x(i,j)表示神经网络中的节点i在计算节点j上执行分配的计算资源,当x(i,j)=0时,表示神经网络中的节点i不在计算节点j上进行计算。52.奖励r:根据用户的qos需求建立奖励函数。53.然后使用ddpg算法得到决策,ddpg是一种常用的深度强化学习算法,具有出色的感知和决策能力,通过ddpg算法可以得到适合的切分下载和计算资源分配的方案。54.在上述任务分配方法中的步骤s206中,确定计算任务的分配策略,具体包括如下步骤:获取边缘服务器对应的网络参数信息,以及执行计算任务所需的目标计算资源,其中,网络参数信息包括以下至少之一:网络的带宽和网络的信道条件;至少依据网络参数信息、目标计算资源和多个边缘节点的状态信息,确定计算任务的分配策略。55.在本技术实施例中,可通过ddpg算法训练模块训练ddpg,基于云边协同计算中在终端设备提出的dnn推理时延要求和可靠度目标,最小化系统的整体能耗,根据网络参数信息,如网络的带宽、信道条件等,以及dnn网络的结构、计算量等信息,在ddpg中输入边缘节点的状态特征维度,动作空间以及相应的网络参数信息,训练ddpg,并得到在云边协同执行dnn切分和计算资源分配最优策略。56.在上述任务分配方法中的步骤s208中,将计算任务中的子任务分配至多个边缘节点,具体包括如下步骤:依据分配策略对计算任务进行切分,得到多个子任务;将多个子任务分发至边缘服务器中的多个边缘节点中进行计算。57.在本技术实施例中,基于深度强化学习,输入边缘节点的状态信息,将子任务和分配策略作为动作进行输出,将终端设备的dnn推理任务按照算法模块输出的优化的策略进行切分,并将切分后的任务分配到对应的边缘服务器或云服务器上,需要说明的是,推理任务即为本技术中的计算任务。58.在上述任务分配方法中的步骤s208中,将计算任务中的子任务分配至多个边缘节点之后,如图4所示的流程图,方法还包括如下步骤:59.步骤s402,获取计算任务的执行顺序;60.步骤s404,控制多个边缘节点按照执行顺序执行多个子任务;61.步骤s406,在边缘服务器下载神经网络的计算任务的情况下,接收多个边缘节点返回的执行结果。62.在上述步骤s406中,接收多个边缘节点返回的执行结果之后,方法还包括:将执行结果传输给终端设备。63.在上述步骤s402至步骤s406中,5g网络中的边缘服务器和云服务器按照dnn推理的顺序执行计算和数据传输,根据分配的计算资源执行计算,并将最后的处理的结果返回到下载该神经网络计算任务的边缘接入服务器,并最终返回到终端设备。64.本技术实施例提供的任务分配方法,对神经网络进行分析,估计神经网络每层的计算量和输出的数据量,对神经网络的结构进行分析,特别是深度神经网络层之间执行的依赖关系。再根据云边端的状态,如设备可靠性、链路可靠性、传输速率,计算能力等参数,以满足dnn推理时延条件和优化推理成功的可靠性,降低网络整体的能耗,构建5g网络中基于云边端协同的dnn切分推理加速模型。65.本技术实施例提供的任务分配方法,利用云服务器和边缘服务器协同计算,解决5g边缘网络中时延约束下计算密集型dnn推理的问题;考虑设备的可靠性问题,设备在计算时可能会出现故障,据此建立可靠性模型,充分考虑dnn网络结构的可分割性和任务分配策略,计算资源的分配策略,降低dnn推理的时延,提高推理可靠性,降低系统的整体能耗,解决由于计算能力有限难以完成时延敏感型任务的问题。66.本技术实施例提供的任务分配方法具有如下优点,依据通信链路的状态和设备状态,考虑推理任务完成的概率,对网络服务器可靠度和链路的可靠度进行分析,建立了可靠性模型,提出切分和分配方案,有效提高了推理完成的可靠度,降低了推理时延,适用于对可靠度要求高和时延敏感的任务;考虑了智能终端的资源受限的问题,提出云边端协同推理加速的的方法,保证用户时延和可靠性等qos要求下,降低了系统的整体时延;使用ddpg强化学习算法解决优化问题,基于网络参数信息,设置状态空间,基于优化目标和约束条件设置了回报函数,基于深度强化学习的策略。67.本技术实施例提供的任务分配方法可适用于如下场景:68.场景1:在智能制造的场景中,目前深度神经网络应用到工业环境中,如生产线、机械臂等的控制,终端产生的数据需要高效可靠的进行处理,本技术实施例提供的任务分配方法可以将任务在云边端协同执行,保证数据分析的可靠性和实时性,该方法可以成为计算密集型和时延敏感型dnn推理问题的一种解决方案,从而解决由于计算能力、能源的限制dnn在终端上应用受到限制的问题,用户得到更好的服务体验。69.场景2:在5g网络中,智能终端上采集到的视频图像,需要dnn推理任务,可以卸载到边缘接入服务器,利用边缘服务器和云端执行,保证视频分析的实时性。70.场景3:无人机在运行过程中需要进行采集视频分析和路径分析,但是计算密集型dnn难以在终端上运行,可以通过云边的协作,切分计算,满足实时分析的要求。71.图5是根据本技术实施例的一种任务分配装置的结构图,如图5所示,该装置包括:72.获取模块502,用于获取终端设备发起的神经网络的计算任务;73.第一确定模块504,用于确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;74.第二确定模块506,依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;75.分配模块508,用于依据分配策略,将计算任务中的子任务分配至多个边缘节点。76.在上述任务分配装置中的获取模块中,获取终端设备发起的神经网络的计算任务,具体包括如下过程:将神经网络映射成有向无环图的形式;将有向无环图中的每一层节点进行划分,得到多个节点群组;依据多个节点群组中的每个节点群组对应的子任务,确定神经网络的计算任务。77.在上述任务分配装置中,状态信息还包括:多个边缘节点在边缘服务器中的位置,以及多个边缘节点对应的最早可用时间。78.在上述任务分配装置中的第二确定模块中,确定计算任务的分配策略,具体包括如下过程:获取边缘服务器对应的网络参数信息,以及执行计算任务所需的目标计算资源,其中,网络参数信息包括以下至少之一:网络的带宽和网络的信道条件;至少依据网络参数信息、目标计算资源和多个边缘节点的状态信息,确定计算任务的分配策略。79.在上述任务分配装置中的分配模块中,将计算任务中的子任务分配至多个边缘节点,具体包括:依据分配策略对计算任务进行切分,得到多个子任务;将多个子任务分发至边缘服务器中的多个边缘节点中进行计算。80.在上述任务分配装置中的分配模块中,将计算任务中的子任务分配至多个边缘节点之后,该装置还包括:获取计算任务的执行顺序;控制多个边缘节点按照执行顺序执行多个子任务;在边缘服务器下载神经网络的计算任务的情况下,接收多个边缘节点返回的执行结果。81.在上述过程中,接收多个边缘节点返回的执行结果之后,该装置还包括:将执行结果传输给终端设备。82.需要说明的是,图5所示的任务分配装置用于执行图2所示的任务分配方法,因此上述任务分配方法中的相关解释说明也适用于该任务分配装置,此处不再赘述。83.图6是根据本技术实施例的一种任务分配流程图,如图6所示,步骤601,边缘服务器接收终端设备的dnn计算任务、目标时延、计算可靠度等qos需求;步骤602,获取边缘服务器的网络参数信息,如计算资源信息等;步骤603,边缘服务器根据网络参数信息,通过深度强化学习算法得到dnn切分和分配策略,并在云服务器和边缘服务器段进行切分;步骤604,边缘服务器和云服务器分别执行切分的dnn模型,并进行数据传输;步骤605,边缘服务器将计算结果返回边缘接入服务器中,该边缘接入服务器即为下载神经网络的计算任务的服务器;步骤606,边缘接入服务器将计算结果返回终端设备。84.本技术实施例还提供了一种非易失性存储介质,该非易失性存储介质包括存储的程序,其中,在程序运行时控制该非易失性存储介质所在设备执行以下任务分配方法:获取终端设备发起的神经网络的计算任务;确定边缘服务器中多个边缘节点的状态信息,其中,状态信息至少包括多个边缘节点可用的计算资源,边缘节点用于计算计算任务;依据状态信息和目标时延,确定计算任务的分配策略,其中,目标时延为计算任务所需的最大时长;依据分配策略,将计算任务中的子任务分配至多个边缘节点。85.上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。86.在本技术的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。87.在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。88.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。89.另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。90.所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。91.以上所述仅是本技术的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本技术的保护范围。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部