-
同时负责中国联通数字化底座PaaS平台组件运营等相关工作。鉴于现有中国联通数字化底座PaaS平台-大数据组件均为东方国信有限公司建设且东方国信已承担平台运营支撑工作2年
-
Spark、HBase、Kafka、Flink、Elasticsearch等大数据组件。MRS管控节点,提供大数据平台的集群管理和监控调度的能力1节点683
-
了解Hadoop、Spark等数据加工及处理机制,了解ETL调度工具应用,了解主流大数据组件或产品原理或应用(至少一种);了解大数据、数据仓库、数据集市
-
操作系统(含Windows、Linux以及国产化操作系统)、大数据组件、数据库、虚拟化平台以及国产应用软件的识别和扫描能力;4.支持FTP
-
原生ElasticSearchhttp接口协议);;文件数据存储服务:系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
熟练掌握JAVA应用开发,熟悉mysql数据库特性并具备调优能力,熟悉常用大数据组件及中间件,有实际使用经验为佳。(二)项目团队能力要求建立稳定且专业的技术团队
-
HyperV,可扫描漏洞数量大于4500条(提供截图);6、★支持扫描大数据组件的安全漏洞,如Spark、Splunk、Kafka、Storm
-
可自动生成资产拓扑图(提供产品功能界面截图);8、支持对主流大数据组件的识别与扫描9、具有测评中心颁发的产品检测证书;10
-
基于大数据套件(包括但不限于分布式文件存储、批量计算框架、内存计算框架、流数据计算引擎等大数据组件)+MPP数据库混合技术体系建设大数据平台,依托大数据技术实现数据采集、存储
-
自动判断被扫描主机的操作系统类型及版本。5漏洞扫描系统。(5)支持扫描大数据组件框架的安全漏洞,需覆盖Ambari、Cassandra、Hadoop
-
自动判断被扫描主机的操作系统类型及版本。5漏洞扫描系统。(5)支持扫描大数据组件框架的安全漏洞,需覆盖Ambari、Cassandra、Hadoop
-
自动判断被扫描主机的操作系统类型及版本。5漏洞扫描系统。(5)支持扫描大数据组件框架的安全漏洞,需覆盖Ambari、Cassandra、Hadoop
-
Hive、HBase、Spark、Storm、Flink、Kafka等主流大数据组件;3.具备良好的业务理解能力和沟通协作能力,能够为业务团队提供数据支持;4
-
帮助企业应对超高并发环境的审计问题。支持常见的云数据库、自建数据库、大数据组件;支持多地域、多VPC的数据资产管理。1.5数据安全中心服务
-
05_Hi-Care高级服务标准+2288HV5_12月_续保大数据组件在用设备TaiShan2280(泰山服务器)33台包含1
-
“实验模块”的产品不满足主要技术参数及性能(配置)要求中“2.支持用户选择常见的大数据组件进行自主实验……”的内容,所投货物8“管理平台模块”的产品不满足主要技术参数及性能(配置)要求中的“▲3
-
05_Hi-Care高级服务标准+2288HV5_12月_续保大数据组件在用设备TaiShan2280(泰山服务器)33台包含1
-
对Web应用提供专业的漏洞、挂马检测和分析,云大物扫描模块,对云计算平台、大数据组件、物联网设备提供漏洞检测和分析。3
-
HP—UX、Solaris、MacOSX等。国产操作系统等。7、支持常见的大数据组件。8、应用漏洞知识库数大于10000种,支持对主流Web漏洞的识别与扫描
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
查看具体模板包含的漏洞列表详情等;4)云大物扫描模块能力,对云计算平台、大数据组件、物联网设备提供漏洞检测和分析;二
-
Spark、HBase、Kafka、Flink、Elasticsearch等大数据组件。MRS管控节点,提供大数据平台的集群管理和监控调度的能力1节点615
-
自动按照目标端规范调整适配(提供原厂商此项功能性截图证明文件);支持不同大数据组件(HDFS/HBASE/HIVE/KAFKA/ES等)
-
Spark、HBase、Kafka、Flink、Elasticsearch等大数据组件。MRS管控节点,提供大数据平台的集群管理和监控调度的能力1节点615
-
并加盖供应商公章)50.支持伪装系统服务、WEB服务、安全设备、数据库服务、大数据组件、容器级服务等服务。51.▲支持文件诱饵,可虚拟主机的目标路径下发
-
应支持主流国产数据库如:达梦、人大金仓、南大通用等的审计,同时可支持大数据组件如:MongoDB、Hbase、Hive、impala、ES
-
Kafka、HBase、Hive、Sqoop、Yarn-MR、Impala等大数据组件的配置核查;支持漏洞生命周期管理,包括未修复、确定、忽略、修复
-
Kafka、HBase、Hive、Sqoop、Yarn-MR、Impala等大数据组件的配置核查;支持漏洞生命周期管理,包括未修复、确定、忽略、修复
-
分包一:大数据平台优化提升项目系统和软件规格型号(或服务要求):1、新建大数据组件管理、政务数据目录系统升级、数据资源系统升级、新建供需对接管理系统
-
分包一:大数据平台优化提升项目系统和软件规格型号(或服务要求):1、新建大数据组件管理、政务数据目录系统升级、数据资源系统升级、新建供需对接管理系统
-
1.2采购内容及分包(标段)划分情况:1.2.1项目内容:基于多维分析大数据组件和场景化数据,构建开箱即用的智能洞察工具,快速支撑用户态势、营销转化
-
忽略、修复、已验证五种状态。(提供产品截图并加盖投标人公章)5、支持扫描大数据组件的安全漏洞,如Spark、Splunk、Kafka、Storm
-
)物联网平台系统内存数据库功能模块IPv4/IPv6兼容性改造8)物联网平台系统大数据组件功能模块IPv4/IPv6兼容性改造9)物联网平台系统消息中间件功能模
-
以便及时发现、溯源、定位问题,同时支持任务调度配置、资源配置功能。系统支持大数据组件运维监控,包括Spark、HDFS、Yarn、Zookeeper
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
微服务服务器通用型天翼云天翼云科技有限公司兰州台265001300044服务器模块-数据中台大数据组件服务器通用型天翼云天翼云科技有限公司兰州台370002100045服务器模块
-
应用漏洞Top10、主机漏洞风险分布等(提供软件功能截图);4.支持扫描大数据组件的安全漏洞,如Spark、Splunk、Kafka、Storm
-
合同主体信息1、主要标的信息:主要标的名称:智慧大脑软件云部署服务,数据上报治理平台大数据组件服务器租用,数据中台web服务、注册中心、核心网关租用
-
广西计算中心有限责任公司大数据组件实施及运维服务采购项目(重)(项目编号:JS2023-FWCG-074)评审工作已经完成,现对评审结果予以公示。推荐成交候选人情况如下
-
现就广西计算中心有限责任公司大数据组件实施及运维服务采购项目(重)进行询价采购,凡符合本项目要求的单位均可参加报名1、项目概况及采购范围1
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
广西计算中心有限责任公司大数据组件实施及运维服务采购项目(项目编号:JS2023-FWCG-074),经评审有效报价不足3家,采购失败
-
现就广西计算中心有限责任公司大数据组件实施及运维服务采购项目进行询价采购,凡符合本项目要求的单位均可参加报名1、项目概况及采购范围1.1项目名称
-
轻松运行Hadoop、Hive、Spark、HBase、Kafka、Flink等大数据组件,提供数据大规模批量和实时数据归集的能力,提供统一的一份数据存储。3
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
负责对应用部署服务器的中间件进行巡检,保障系统稳定运行,对于安全漏洞进行及时处理。负责大数据组件相关的日常基础环境巡检,对Hadoop(包括HDFS、Hive
-
原生ElasticSearch接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch
-
\n2.支持对主流安全设备、网络设备、服务器、终端、数据库、中间件、大数据组件、应用系统等设备系统进行日志采集,包括交换机和路由器、虚拟化及云计算平台
-
原生ElasticSearchhttp接口协议);同时系统支持HDFS文件数据存储服务,支持大数据组件MapReduce、Hive、Spark、Flink、ElasticSearch