<cite id="txdbx"><strike id="txdbx"><listing id="txdbx"></listing></strike></cite>
<var id="txdbx"><strike id="txdbx"></strike></var>
<cite id="txdbx"><video id="txdbx"><thead id="txdbx"></thead></video></cite>
<thead id="txdbx"><video id="txdbx"><thead id="txdbx"></thead></video></thead>
<ins id="txdbx"><video id="txdbx"></video></ins>
<var id="txdbx"></var>
<var id="txdbx"><span id="txdbx"><menuitem id="txdbx"></menuitem></span></var><cite id="txdbx"><video id="txdbx"><thead id="txdbx"></thead></video></cite>
<var id="txdbx"></var>
<var id="txdbx"></var><menuitem id="txdbx"></menuitem>
<menuitem id="txdbx"><video id="txdbx"><thead id="txdbx"></thead></video></menuitem><cite id="txdbx"></cite>
<var id="txdbx"></var>
<cite id="txdbx"><span id="txdbx"><thead id="txdbx"></thead></span></cite>
<i id="txdbx"><noframes id="txdbx">
<var id="txdbx"></var>
<cite id="txdbx"></cite>
<var id="txdbx"><strike id="txdbx"></strike></var>
<var id="txdbx"><strike id="txdbx"></strike></var>
<var id="txdbx"><video id="txdbx"><thead id="txdbx"></thead></video></var>
<cite id="txdbx"><video id="txdbx"></video></cite>
工業電器網
當前位置:首頁> 云計算解決方案-長飛光纖|智慧聯接??美好生活

云計算解決方案-長飛光纖|智慧聯接??美好生活

日期:2023-05-08 22:32:50

?REMOTEAPP方式,即在本地創建快捷方式,指到云端的程序(程序安裝在云端并在云端運行)。?對象存儲服務(OBJECT):有原生的API,而且也兼容SWIFT和S3的API。?通過對象存儲服務,如OPENSTACK的SWIFT就是采用RESTFULL調用方式訪問CEPH的。本節主要教大家如何搭建一個大型的云計算平臺,讀完之后你會對云計算有一個更加清晰的認識。能接入500臺以上的云終端,可以滿足大型公司內各類員工的辦公需求。公司員工用各自的賬號能在公司內部的任何云終端上登錄自己的遠程桌面,實現公司內部移動辦公;同時,要求出差在外的員工也能安全訪問遠程桌面,公司安全管理部門能監控到外發的電子文檔資料。對于一家大型公司來說,云終端用戶的基本分類如表1所示。根據用戶在云端共享層次(參見《IT系統組成》教程)的不同,有如下幾種實現技術。這是最輕量級的,所有的人都用同一個賬戶登錄,進入同一個用戶環境,可運行同一個程序集中的程序,每個人的數據集對其他人可見。用戶一退出,其計算痕跡全部被刪除。本方法特別適用于公共場所,如圖書館的多媒體閱覽室、教育培訓機構的計算機室、智能會議室、查詢終端等。這是較輕量級的,即每個用戶獨占數據集和少量應用軟件,共享硬件、系統軟件(如操作系統)和大部分應用軟件。這就是多用戶系統,LINUX操作系統是一個典型的多用戶系統,WINDOWS的遠程桌面服務也是多用戶系統。多用戶系統又存在以下兩種實現方法:這兩種方法都要求事先在云端創建賬號,并配置用戶環境。在第一種方法中,當用戶雙擊快捷方式時,會自動登錄云端(賬號和密碼事先配置好),然后在云端計算。第二種方法是人工登錄到云端桌面。REMOTEAPP方式可以實現“單一入口、分工計算”的目的,即若干臺云端服務器可以分工計算,比如有的服務器運行辦公軟件,有的服務器運行多媒體軟件,有的服務器運行游戲軟件,有的服務器專門用于科學計算,等等,然后把這些程序都整合到用戶的桌面上來。為了實現這種“單一入口、分工計算”的目的,必須采用單點登錄(用戶集中認證)和家目錄漫游。用戶的桌面可以在本地,也可以在云端(專門用一臺服務器存放桌面),桌面上的快捷方式可以由用戶自己創建(但規定了可選擇的程序集),也可以由系統管理員推送過來。當用戶數達到幾百、上千甚至上萬時,采用REMOTEAPP方式較合適。這是基于操作系統層面的虛擬機,也稱為“容器”(常說的VPS,即虛擬私有服務器)。每個VPS都擁有自己的IP、根文件系統、用戶認證系統,以及應用軟件集,但是同一臺物理機器上的VPS共享底層的操作系統內核,用戶使用VPS就像使用一臺單獨的物理機器(但是涉及操作系統內核修改的操作是禁止的,比如我們經常會在LINUX下重構內核,這在VPS中是不允許的)。從整臺物理機來看,由于內存中只有一個操作系統在運行,所以與全虛擬機相比,物理機能輸出更大的有效計算能力,也能承載更多的“容器”,容器數量幾乎多出一倍。另外,與上面兩種方法相比,VPS能達到更好的數據隔離效果。本技術方案特別適合個性化用戶和要求數據隔離良好的應用,絕大多數VPS提供商都會采用。虛擬機共享硬件和HYPERVISOR層(有的是操作系統,有的是虛擬層),獨占操作系統、應用軟件和信息。與Ⅲ型相比,虛擬機具備更佳的隔離效果,用戶透明度更高,遠程用戶幾乎不能分辨自己使用的到底是虛擬機還是物理機,在物理機上能進行的操作在虛擬機里都能進行。但是由于一臺物理機同時運行多個操作系統,所以資源浪費更大。對于一些要做深度開發的技術工程師(如程序開發員),建議給他們創建虛擬機,允許他們配置虛擬機硬件、安裝操作系統、安裝開發工具等。這是最重量級的,即獨占網絡層以上的全部信息和技術,直接給用戶分配物理機。用戶通過遠程管理卡連接到物理機,從而可以開關機、配置BIOS參數、安裝操作系統、配置網絡參數、安裝應用軟件等。物理機的隔離效果最佳,用戶個人體驗最佳,但是成本也最高。對于一個單位組織的IT工程師,建議給他們分配物理機。根據公司用戶分類和IT系統層次的不同,可制成表2。對表2解析如下:1)公司領導的數據和應用特別重要,所以每個領導分配一臺虛擬機,領導的虛擬機運行在專門的兩臺服務器上,兩臺物理服務器做成集群。2)研發人員的重要程度等同于公司領導,他們具備大致相同的操作行為,所以也采用專門的物理服務器。但是同一個項目成員之間保密度不高,他們之間往往需要共享很多文檔資料和源代碼,并使用相同的開發工具,所以建議他們使用多用戶遠程桌面(先Ⅳ型后Ⅱ型)。不同項目組之間應施行嚴格的隔離措施,即不同的項目組采用不同的虛擬機。如果一個項目足夠大,超出了一臺虛擬機的處理能力,那么可創建多臺虛擬機,這些虛擬機之間通過VLAN互聯。采用虛擬機而不是物理機的好處是,虛擬機遷移方便、可用性高。3)業務人員面向的是公司的對外業務,涉及客戶和提供商,他們積累的數據同樣非常重要,對應用的可用性要求較高。所以,建議盡量使用專門的服務器,重要的職員使用單獨的虛擬機,同一部門的職員使用虛擬機上的多用戶桌面。如果某個部門內的職工人數很多,則可以分配多臺虛擬機。4)普通文員和重要文員使用專門的服務器,每個重要文員分配單獨的虛擬機,普通文員采用虛擬機上的多用戶桌面。當然,對于那些只維護應用的員工來說,也可以分配一臺虛擬機。5)IT運維人員使用的軟件比較雜,操作行為多變,需要經常模擬各種應用場景,所以直接給他們分配物理服務器是一個好主意。根據具體情況,可能一些運維人員還需分配多臺服務器。基于上述分析,最終我們設計的云計算方案框圖如圖1所示。我們采用OPENSTACK云計算管理工具和MARIANTS公司的FUEL自動部署工具。在圖1中,每個組承載一定數目的虛擬機,這些虛擬機可能被分割成不同的VLAN,同一臺虛擬機允許在它歸屬的組內“漂移”,但不能跨越組邊界。所以我們采用的網絡拓撲為基于VLAN的NEUTRON,它支持網卡綁定、虛擬交換機(OVS)和MURANO,允許對租戶進行隔離。網絡設計如圖2所示。我們采用了5張網絡平面,從上至下分別是公司內部網(或業務網)、管理網、存儲網、FUEL網和CEPH內網。其中,公司內部網相當于公司的傳統IT系統網絡,分配給員工使用的虛擬機和一些應用服務器(如網站、郵箱等)都屬于這張網;而管理網、存儲網、FUEL網和CEPH內網組成OPENSTACK相關網絡部分,OPENSTACK的作用就是管理虛擬機,是手段。在圖2中,由CEPH內網支撐的立方體代表OSD服務器,由FUEL網支撐的立方體代表OPENSTACK中的控制和計算服務器,貫穿公司內部或者由其支撐的立方體代表虛擬機和應用服務器。一個立方體的支撐網絡平面和貫穿網絡平面代表一臺服務器同時處于幾個網絡平面中,如圖2中的OPENSTACK服務器同時處于3個網絡平面。各個網絡平面的作用如表3所示。本大型方案決定采用OPENSTACK構建基礎平臺,全部的集群具備橫向擴充的特征,對于OPENSTACK我們做如下設計。在云端存在8個集群,其中管理集群用來運行OPENSTACK服務(但不包含業務計算節點),所以管理集群本身的虛擬機不納入OPENSTACK中管理。而每個集群上的虛擬機不允許“漂移”到其他集群,所以我們采用HA對全部機器進行分組,同時只采用一個REGION和一個CELL。之所以要采用CELL,是為了以后擴展,如圖3所示。為了便于區分和記憶,直接采用集群的名字作為HA分組的屬性,屬于同一個HA組的機器最好分布在不同的機柜,每個機柜一般都有各自的供電、網絡、避雷和冷卻等設施,這樣就能最大限度地保證同一個HA內的機器不會同時損壞。分組情況如表4所示。加上管理群等,差不多有45臺機器,全部采用2U的機架式服務器,安裝在3個機柜中,要求每個分組的機器分散到盡量多的機柜中,如圖4所示。管理群中有3臺服務器,每臺服務器上運行3臺虛擬機,第一臺虛擬機運行KEYSTONE和HORIZON服務,第二臺虛擬機運行父CELL中的4個服務,第三臺虛擬機運行子CELL中的幾個控制服務(AMQP、DATABASE、NOVA-CELLS、NOVA-SCHEDULER、NOVA-NETWORK),通過負載均衡器把任務平均調度給3臺服務器。一共9臺虛擬機,分成3組,每組3臺虛擬機中運行相同的服務,共同承擔由負載均衡器分配過來的任務。系統架構圖中的基礎服務集群包括DNS、域控、DHCP、局域網接入認證、單點登錄、IT設備監控、用戶上網行為管理、病毒特征庫、補丁中心、入侵檢測、VPN等。中央存儲部分保存公司與辦公相關的數據,所以科學設計中央存儲非常關鍵,必須從容量、性能、可靠性等方面仔細斟酌。本案例的存儲需求說明如表5所示。方案選型時,對以下幾方面加以關注。綜上所述,我們決定采用CEPH來構建存儲子系統。CEPH發展很快,目前已能在生產環境中使用。它對外能提供3種存儲服務,分別如下。CEPH的優點如下。CEPH的架構如圖5所示。外界可以通過以下四條途徑訪問CEPH:我們設計的集中存儲方案邏輯框圖如圖6所示。在這個方案中,我們采用了6臺存儲節點、3臺監控節點、2臺文件系統元數據節點。其中,最關鍵的是運行對象存儲守護進程(OSD進程)的節點,CEPH官方建議采用通用的服務器,比如惠普、戴爾品牌的機器都可以。如果用不到CEPH的文件存儲服務(如NFS),那么元數據服務器(MDS)可以不要。客戶端通過網絡訪問CEPH中的數據,負載被平均分配到全部的存儲節點上,因此并沒有瓶頸。訪問數據的輸入/輸出通路如圖7所示。在整個輸入/輸出通路上,帶寬是由最慢的部件決定的。在這些部件中,內存的速度是最快的,“短板”必在硬盤、輸入/輸出控制卡、網卡、交換機中,下面分別加以闡述。混合使用固態硬盤(SSD)和多塊機械硬盤(HDD)。固態硬盤性能高、容量小,機械硬盤性能低、容量大,混合使用大致可以達到固態硬盤的性能和機械硬盤的容量。當然,還需要軟件的配合才能發揮其最大的優勢。在CEPH方案中,固態硬盤做日志盤,多塊機械硬盤做數據盤,多塊硬盤做成JBOD或者RAD0。表6所示是截至發稿前一些硬盤的IOPS和吞吐統計值。ATA5400RPM的硬盤在筆記本、移動硬盤產品中多見。SAS硬盤在傳統服務器中用得較多,但是其價格高、容量小的缺陷注定其將逐漸退出市場。SATA7200RPM目前是主流,尤其是臺式機用得最普遍,結合SSD硬盤,做成混合存儲方案,越來越得到重視。相比PCI-ESSD,SATASSD用得更普遍,盡管PCI-ESSD具備卓越的IOPS和巨量吞吐,但是其動輒上萬元的價格使絕大多數消費者望而卻步。總結:SATA7200RPM的機械盤+SATASSD混合存儲方案是將來兩三年內的流行方案。硬盤控制器一般集成在主板上的南橋芯片中,尤其是臺式機,很少需要額外添加硬盤控制卡。但是有時需要接入太多的硬盤或者需要更高的吞吐或者支持陣列,這時就要額外購買硬盤控制卡,并插入主板的PCI-E插槽中。無論是獨立的控制卡還是集成到南橋芯片中,輸入/輸出控制芯片都至關重要(見表7)。從表7中可以看出,輸入/輸出控制芯片幾乎被LSI公司壟斷。如果購買獨立的I/O控制卡,建議芯片版本在2008以上。本方案中購買的是LSISAS3008芯片組產品,為以后預留足夠的縱向擴展空間。在I/O通路上,內存的速度是最快的,所以在速度上沒有特別的要求(當然,在執行指令的通路上,內存又會成為“短板”)。但是內存的穩定性至關重要,內存的穩定性要求不能出錯,即使出錯了,也還能糾正錯誤。因此,強烈建議采用具備糾錯功能的ECC內存、多通道內存、DDRⅢ代內存、服務器內存,當然內存容量越大越好。網絡很容易成為輸入/輸出通路上的瓶頸,可以肯定,如果采用單塊千兆網卡或者千兆及以下的交換機,那么理論上網絡的吞吐是100兆字節(約等于1000/10),實驗數據大概在60兆左右。表6中列出的最慢硬盤,其吞吐也在百兆以上。因此,組建CEPH存儲時建議采用當時最快的網卡和網絡設備。比如2014年有萬兆網卡和交換機,萬兆網絡理論吞吐是1000MB,實驗數據也在600MB以上,超過除PCI-E固態盤外的所有類型的硬盤吞吐。如果還嫌慢,就捆綁多塊萬兆網卡平攤流量,比如采用N塊,那么理論吞吐就是N×1000MB了。注意,網卡的穩定性也很重要,所以要購買大品牌網卡,可能價格會貴很多,但是收益也很明顯(減少一次數據丟失就賺了)。CEPH中的監控程序(MON)建議運行在單獨的計算機上,至少三臺。MON監視整個存儲集群的運行狀態,記錄PG(對象的位置信息)和OSD日志,因此運行MON的計算機配置要求不高,采用一般配置(如7GHZ的CPU、16GB內存、500GB硬盤)即可。各種集群中的服務器的主要任務是運行虛擬機,因此對CPU和內存比較敏感。基礎服務集群中的計算機統一采用物理機直接安裝法(不采用虛擬機),以便提高基礎服務的快速響應能力,這部分機器對硬件配置要求不高,但是對可靠性要求很高,具體如表8所示。控制節點包括網絡基礎服務節點和OPENSTACK控制節點,其中網絡基礎服務節點有3個,OPENSTACK控制節點有3個。網絡基礎服務包括DHCP、DNS、AD、RADIUS、IDS、CA、打印服務、NTPD等,關乎整個系統的可用性,因此機器要求穩定可靠,性能倒在其次。網絡基礎服務節點硬件配置如表9所示。注意:系統做成只讀的,可變數據放在CEPH中。OPENSTACK控制節點對計算資源沒有特別偏好,要求CPU、內存、網絡和硬盤配備均衡,硬盤側重于速度。OPENSTACK控制節點硬件配置如表10所示。FUEL節點側重于輸入/輸出通路帶寬,即配備高速的網絡、磁盤、內存,合理的硬件配置如表11所示。CEPH中央存儲采用6臺機器,三份備份模式,提供96TB的有效存儲容量,物理磁盤容量為288TB。單臺計算機的配置參考如表12所示,可以自己組裝,也可以購買類似配置的品牌計算機。根據CEPH部署經驗值,一個OSD進程需要1GHZ的CPU頻率,1TB的存儲需要1GB內存,所以對本配置,一臺計算機大約運行12個OSD進程(4×3.2),每個OSD進程大約分配4GB內存,并分別負責一塊機械硬盤。240GB的固態盤分為12個區,每個區20GB,存放OSD進程的日志。存儲節點配置之MON配置如表13所示。本配置方案采用了服務器版的凌動CPUC2750,超微的這塊小主板相當于嵌入式主板,運行穩定可靠、功耗低,整臺計算機的功耗在40W以內。應用層軟件先不做考慮,我們主要是針對系統層,同時遵循開源軟件優先、類型盡量單一、結構盡量簡單的原則,最終選定的軟件如表14所示。之所以選擇64位的CENTOS7.2,理由如下:它采用LINUX內核3.15版,默認采用XFS文件系統(一個單文件系統容量可達500TB),完美支持DOCKER容器,無縫銜接WINDOWSAD域,還有其他眾多的適合云計算的特征。整個系統的部署主要涉及4個部分,分別是CEPH的部署、OPENSTACK的部署、基礎服務集群的部署,以及虛擬機里的應用部署。這里只對前3部分做概括性介紹,應用部署不在本教程的討論范圍之內。最著名的自動化部署OPENSTACK的工具有以下幾個。MIRANTIS是一家專門圍繞OPENSTACK推廣和運維的公司,其發布的開源自動化部署工具FUEL非常強大,囊括了安裝操作系統、高可靠性高計算(HA)、安裝OPENSTACK和運維監控等,而且實現了CLI界面和基于WEB的GUI。官方網站為HTTPS://WWW.MIRANTIS.COM老牌經典,不過功能相對FUEL要弱。其他比較強大的工具都是基于它開發出來的。從HTTPS://GITHUB.COM/PUPPETLABS/PUPPETLABS-OPENSTACK網站可以下載其文檔和腳本。基于PUPPET開發,目前只支持REDHAT/CENTOS操作系統,支持多節點部署OPENSTACK。項目網站為HTTPS://GITHUB.COM/STACKFORGE/PACKSTACK這算是最早的一套從源碼安裝OPENSTACK的自動化腳本,適合搭建開發或者實驗的OPENSTACK環境,不適合在生產環境中使用。項目網站為HTTPS://GITHUB.COM/OPENSTACK-DEV/DEVSTACKCEPH存儲系統中的各個節點的名字和IP分配如表15所示。單臺OSD節點上的硬盤文件如表16所示。每個4TB的硬盤對應一個20GB的日志分區。計算節點120GB的固態盤分成三個分區,即根分區32GB、數據分區和交換分區8GB。控制節點做同樣的分區規劃,FUEL分區無須人工規劃,在安裝MIRANTISFUEL時自動完成。我們采用FUEL來部署OPENSTACK,按照下面的任務列表進行部署。從MIRANTIS官網下載最新的FUEL的ISO鏡像文件并做成啟動介質(USB盤或光盤),啟動計算機,在開始安裝界面上按TAB鍵并修改SHOMENU=YES,這樣在FUEL安裝過程中會跳出一個設置界面,可以設置如下參數:注意,事先記下各塊網卡的MAC地址和鏈接的網絡,這樣配置時就不會搞亂。安裝時人工干預不多,幾乎是自動完成的,但是時間有點長,大概需要20多分鐘。安裝完成后打開網站HTTP://IP:8000輸入ADMIN用戶和密碼登錄可視化的管理界面(默認密碼是ADMIN)。其他節點機全部設置成從網卡啟動,并開機,這些機器都會自動安裝操作系統。一會兒FUEL就會檢測到這些節點,并把數目顯示在靠近右上角的地方,比如X個全部節點,Y個未分配節點。首先新建一個OPENSTACK環境,如圖8所示(一個OPENSTACK環境包含控制節點、計算節點和存儲)。在新建OPENSTACK環境的過程中指定如下參數。在這個方案中,我們采用了三個控制節點,做成高可用性集群(HA),如圖9所示。這是因為MYSQL采用GALERA以獲取高可用性,而GALERA采用少數服從多數的算法,所以至少需要三臺服務器。接下來可對剛剛創建的OPENSTACK環境做更細致的配置,比如在“設置”頁上可以修改ADMIN用戶的密碼、安裝額外的組件、改變虛擬機軟件的類型等,在“節點”頁上添加、刪除節點等,如圖10所示。在“節點”頁上勾選一臺或若干臺機器,然后單擊“網絡配置”按鈕,給每塊物理網卡指定網絡平面,單擊“磁盤配置”按鈕可對機器規劃硬盤分區。在“網絡”頁上為各個網絡平面設置網絡參數,在“動作”頁上可以修改OPENSTACK環境名稱或者刪除整個環境。最后單擊“部署變更”按鈕開始部署,各臺服務器開始安裝操作系統,并根據分配的角色安裝相應的OPENSTACK組件,如圖11所示。部署完成后,單擊“健康檢查”頁,對整個OPENSTACK環境做一次全面的檢查測試。如果發現問題,查看有關日志并解決問題,直到健康檢查順利通過。最后在屏幕的上部會顯示我們訪問OPENSTACK儀表盤(HORIZON)的URL地址:HTTP://172.168.0.54/,打開這個URL進入HORIZON的登錄界面,如圖12所示,登錄之后就可以管理整個OPENSTACK了,當然主要是管理虛擬機。OPENSTACK部署之后一些默認的參數如下:完成如下操作:1)在“管理員→系統面板→虛擬機管理器”中查看各個計算節點信息和總數目。2)在“管理員→系統面板→主機集合”中新建如下“主機集”:訪客組、合作伙伴組、辦公組、開發組、領導組、運維組,再把相應的計算節點歸屬到各自的主機集中。同時,取相同的可用域名稱,這樣可方便以后啟動虛擬機時指定可用域。3)在“管理員→認證面板→項目”中創建適當的項目,一般按公司部門創建,同時指定各個項目的資源配額。項目等同于租戶,是資源配額的基本單位,一個租戶可以包含若干個用戶,這些用戶消耗的資源不能超過租戶的總配額。4)在“管理員→認證面板→用戶”中創建用戶,為公司每個需要使用云計算的員工創建用戶,同時指定其歸口的項目(租戶),角色統一為MEMBER。5)在“管理員→系統面板→鏡像”中創建鏡像,分別創建WINDOWSXP、WINDOWS7、WINDOWS8、CENTOS、UBUNTU的鏡像,并且在鏡像中安裝基本的辦公軟件。以后啟動虛擬機時要用到鏡像。6)在“項目→計算→實例”中啟動虛擬機,虛擬機算是鏡像的實例,從一個鏡像中可以啟動多臺虛擬機。

長飛光纖光纜股份有限公司股票代碼:601869.SH / 06869.HK

解決方案

方案簡介

云計算解決方案

數字化轉型正在影響所有行業領域,企業的IT基礎設施面臨不斷升級、擴容以及節能減排的壓力。因此,建設一個高性能、智能、節能的云數據中心勢在必行。

長飛公司順應行業發展趨勢,提供云計算數據中心的基礎設施解決方案、云計算解決方案等服務。長飛云是先進的,穩定的,安全的私有云平臺,包含云管理平臺,桌面云和云運維平臺等系列產品。通過軟件定義計算、存儲、網絡及安全實現云網融合四維一體。

免費咨詢熱線 400-006-6869

相關產品

方案優勢

01 采用OpenStack云計算框架
02 可定制化的業務流程
03 系統高可用
04 系統平滑升級
05 多數據級中心
06 三層權限管理
07 優化網絡拓撲
08 支持移動辦公
OpenStack是業界最為先進的開源云計算框架,擁有廣泛的支持廠商和最為活躍的社區組織。
采用開發接口與業務分離的開發模式,可以根據客戶的訴求,定制業務流程。
分布式數據存儲,系統中任何一個節點宕機,不丟失用戶數據。
系統采用微服務模式部署,實現無縫平滑升級。
根據用戶的組織架構關系,支持多級數據中心,下級數據中心可向上級申請資源,達到資源的合理分配。
為適應實際應用場景,采用三級權限管理,更加貼近用戶實際的管理組織結構。
圖形化的網絡拓撲可直觀展示網元之間的關系,網絡狀況一目了然.
支持微信端工單審批,隨時隨地進行辦公。

建議與反饋

返回頂部
久久久久久精品国产三级