-
少于 50 个节点
-
超过 50 个节点
迁移计划
根据您的反馈,我们建议您采用 CDP 公共云产品
步骤 1:设定
首先注册 CDP 公共云
开启您的数据迁移之旅
步骤 2:注册
在 CDP 公共云上将您的集群注册为‘Classic Cluster”
步骤 3:迁移
使用以下迁移方法之一将工作负载迁移到 CDP 公共云:
- 对于使用 Hbase 的 HDP,请使用 HBase 集群复制
- 对于使用 Kafka 的 CDH,请使用 Streams Replication Manager
步骤 4:流工作负载
迁移到 CDP 公共云时,相应地处理流工作负载:
- 使用 Data Hub集群定义( Kafka 和 NiFi )处理流工作负载
- 如果您当前使用的是 DataFlow,请使用 Cloudera Flow Management 进行 NiFi 数据摄取和管理
资源
CDP 演示和产品导览
了解 CDP 如何通过轻松、快速、安全地连接保护整个数据生命周期来推动基于数据驱动的决策制定。
深入了解如何以前所未有的速度和规模将数据交付给用户,而又不影响安全与治理。
免费培训课程
了解 CDP 如何使业务和 IT 团队受益,并听取成功实施该平台的客户的意见。
专业化服务产品
了解 Cloudera 专业服务如何帮助企业机构成功地在公共云环境中优化数据并扩展分析。
通过 Cloudera 专业服务缩短 DataFlow 实时分析的价值实现时间。
迁移计划
根据您的反馈,我们建议您采用混合方案迁移到 CDP:将大多数工作负载迁移到本地部署版本的 CDP 私有云,如有需要还可使用 CDP 公共云。
步骤 1:本地部署
通过在公共云上进行 48 小时的产品测试,帮助您熟悉 Cloudera Data Platform。深入了解有关平台和服务体验的更多信息,而无需担心基础架构
步骤 2:公有云
下载免费的 CDP 私有云试用版亲身体验一下如果您想试用一下私有云体验,请与您的客户团队联系。
第 4 步:迁移到公共云
首先将弹性或非生产型工作负载迁移到公共云,以释放您现有集群上的容量
- 对于 HBase,请使用 HBase 集群复制
- 对于 Hive、HDFS 和 Kafka,请与您的 Cloudera 客户团队联系
- 对于流工作负载,请使用 Data Hub 集群定义(Kafka 和 NiFi)在云端创建流集群
- 使用 Streams Replication Manager 将 Kafka 数据复制到公共云
- 迁移
资源
CDP 演示和产品导览
了解 CDP 如何通过轻松、快速、安全地连接保护整个数据生命周期来推动基于数据驱动的决策制定。
深入了解如何以前所未有的速度和规模将数据交付给用户,而又不影响安全与治理。
了解一位客户从 CDH 到 CDP 私有云基础版的升级之旅
在您的原有投资上,迁移或升级到 CDP Data Center
仔细查看升级到 CDP 私有云基础版时您可获得什么。
免费培训课程
全面了解 CDP 在云环境中的自助分析功能(注意:需要获得产品访问权限),该功能是面向数据分析师和数据工程师的。
了解 Cloudera Machine Learning 的功能并学习如何导航其工作台界面(注意:建议获得产品访问权限)。
了解 CDP 如何使业务和 IT 团队受益,并听取成功实施该平台的客户的意见。
专业化服务产品
在 Cloudera 专业服务的帮助下,以最小的风险和最十足的信心将 HDP 部署迁移到 CDP 私有云。
SmartOffload:将您的数据仓库迁移到 Cloudera
将 Cloudera 专业服务和 Data Warehouse 的功能结合使用,轻松地扩展数以百计的用例和数以千计的用户。
了解 Cloudera 专业服务如何帮助企业机构成功地在公共云环境中优化数据并扩展分析。
通过 Cloudera 专业服务缩短 DataFlow 实时分析的价值实现时间。